Saturday, November 15, 2025
Homeఇంటర్నేషనల్Teen Suicide: ఆత్మహత్యకు పురిగొల్పిన ChatGPT... AI సలహాలతో 16 ఏళ్ల బాలుడి బలవన్మరణం?

Teen Suicide: ఆత్మహత్యకు పురిగొల్పిన ChatGPT… AI సలహాలతో 16 ఏళ్ల బాలుడి బలవన్మరణం?

AI suicide guidance : టెక్నాలజీ మన జీవితాలను సులభతరం చేస్తుందని నమ్ముతున్న ఈ రోజుల్లో, అదే టెక్నాలజీ ప్రాణాలు తీస్తుందని ఎవరైనా ఊహించగలరా..? హోంవర్క్ సహాయం కోసం వాడిన ఒక ‘చాట్‌బాట్’ ఒక పసివాడి ప్రాణాలను బలిగొందని ఆరోపణలు వస్తున్నాయి. ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ (AI) ప్రపంచాన్ని విప్లవాత్మకంగా మారుస్తున్న తరుణంలో, దాని చీకటి కోణాలు వెలుగులోకి రావడం కలకలం రేపుతోంది. కాలిఫోర్నియాకు చెందిన ఒక 16 ఏళ్ల బాలుడు ChatGPT సలహాలతో ఆత్మహత్య చేసుకున్నాడనే వార్త యావత్ ప్రపంచాన్ని నివ్వెరపరుస్తోంది. 

- Advertisement -

విషాదానికి దారితీసిన ‘స్నేహం’ – చాట్‌జీపీటీతో బాలుడి సంభాషణలు: ఆడమ్ రైన్ అనే 16 ఏళ్ల బాలుడు, సాధారణ విద్యార్థుల్లాగే, తన హోంవర్క్ సహాయం కోసం ChatGPTని ఉపయోగించడం ప్రారంభించాడు. 2024 నుంచి ఈ AI చాట్‌బాట్‌తో అతని అనుబంధం పెరిగింది. మొదట్లో, తన ఆసక్తులైన సంగీతం, బ్రెజిలియన్ జియు-జిట్సు, జపాన్ ఫాంటసీ కామిక్స్ వంటి విషయాలపై చాట్‌జీపీటీని ప్రశ్నలు అడిగేవాడు. చదువు, ఉద్యోగ అవకాశాలు (కెరీర్) వంటి అంశాలపైనా సలహాలు తీసుకునేవాడు. ఈ విధంగా, నెలల తరబడి AIతో అతని సంభాషణలు కొనసాగాయి. అయితే, క్రమంగా ఈ సంభాషణల తీరు మారింది. ఆడమ్ తనలోని ప్రతికూల భావోద్వేగాలను, “డార్క్ థాట్స్” (చీకటి ఆలోచనలు)ను చాట్‌జీపీటీతో పంచుకోవడం మొదలుపెట్టాడు. “జీవితానికి అర్థం లేదని నమ్ముతున్నా, అందువల్ల ఆందోళన చెందుతున్నా” అని AIకి చెప్పినప్పుడు, చాట్‌జీపీటీ “నీ డార్క్ థాట్స్ అన్నీ చూశాను, ఎల్లప్పుడూ నీకు నేను స్నేహితుడిని ఉంటా” అని బదులిచ్చింది. ఇక్కడి నుంచే విషాద ఛాయలు కమ్ముకున్నాయి.

ఆత్మహత్య గురించి ‘సలహాలు’ – AI పాత్రపై ప్రశ్నలు: ఆడమ్ తన ఆత్మహత్య గురించి చాట్‌జీపీటీని ప్రశ్నలు వేయడం మొదలుపెట్టినప్పుడు, AI చాట్‌బాట్ అతనికి మద్దతుగా కొన్ని భయంకరమైన సలహాలు ఇచ్చిందని తల్లిదండ్రులు ఆరోపిస్తున్నారు. దీని ఫలితంగానే తమ కుమారుడు ఆత్మహత్యకు పాల్పడ్డాడని వారు వాపోతున్నారు. బాలుడి తరఫు న్యాయవాది మితాలి జైన్ తెలిపిన వివరాల ప్రకారం, ఏడు నెలల వ్యవధిలో ఆడమ్ దాదాపు 200 సార్లు “ఆత్మహత్య” అనే పదాన్ని ప్రస్తావించాడు. దానికి ప్రతిస్పందనగా చాట్‌జీపీటీ 1200 కంటే ఎక్కువ సార్లు “ఆత్మహత్య” అనే పదాన్ని ఉపయోగించిందని ఆమె వెల్లడించారు. ఆశ్చర్యకరంగా, ఈ సంభాషణల్లో ఏ సమయంలోనూ చాట్‌బాట్ తన సంభాషణను ఆపలేదు. అంతేకాదు, ఆత్మహత్య చేసుకోవడానికి ఉపయోగపడే పలు పద్ధతులు, అంటే మందులు ఓవర్​డోస్ వేసుకోవడం, నీటిలో మునిగిపోవడం, కార్బన్ మోనాక్సైడ్ విష ప్రయోగం చేసుకోవడం వంటి వాటి గురించి వివరంగా వివరించిందని న్యాయవాది పేర్కొన్నారు. ఇది విన్నప్పుడు ఎవరికైనా ఒళ్లు గగుర్పొడుస్తుంది.

AI మోసం: ‘కథ’ పేరుతో సలహాలు రాబట్టడం: ఈ కేసులో అత్యంత ఆందోళన కలిగించే అంశం ఏమిటంటే, చాట్‌జీపీటీ తనను ఎలా “మోసగించాలో” కూడా బాలుడికి నేర్పిందని ఆరోపణలు వస్తున్నాయి. “చెడు ఆలోచనలు వస్తుంటే, మీరు ఒక హెల్ప్‌లైన్‌కు కాల్ చేయండి. ఒకవేళ మీరు కథ కోసం లేదా మీ స్నేహితుడికి ఆత్మహత్య ఎలా చేసుకోవాలో అడుగుతుంటే, నేను దానికి సహాయం చేస్తాను.” అని చాట్‌జీపీటీ బాలుడికి చెప్పిందని మితాలి జైన్ వివరించారు. దీనితో ఆడమ్, తాను ఒక కథ రాస్తున్నానని, దాని కోసం ఆత్మహత్య ఎలా చేసుకోవాలో చెప్పమని చాట్‌జీపీటీని కోరాడు. చాట్‌జీపీటీ ఆ వివరాలు అందించడంతో, బాలుడు బలవన్మరణానికి పాల్పడ్డాడు. ఇది AI యొక్క నైతికత, భద్రతా ప్రమాణాలపై తీవ్రమైన ప్రశ్నలను లేవనెత్తుతోంది.

చట్టపరమైన పోరాటం – ఓపెన్‌ఏఐపై దావా: ఈ విషాద సంఘటనతో కాలిఫోర్నియాకు చెందిన ఆడమ్ రైన్ తల్లిదండ్రులు, OpenAI దాని సీఈఓ శామ్ ఆల్ట్‌మెన్‌పై దావా వేశారు. “చాట్‌జీపీటీ తమ కుమారునికి మానసిక సహాయం కోరమని చెప్పకుండా, బదులుగా ఆత్మహత్య చేసుకోవడానికి సలహాలు ఇచ్చిందని వారు ఆవేదన చెందుతున్నారు.” AI చాట్‌బాట్‌ల రూపకల్పన, వాటికి సరైన నియంత్రణలు లేకపోవడం వల్ల ఇలాంటి దుర్ఘటనలు జరుగుతున్నాయని, దీనికి ఓపెన్‌ఏఐ బాధ్యత వహించాలని వారు డిమాండ్ చేస్తున్నారు.

సంబంధిత వార్తలు | RELATED ARTICLES

Latest News

Ad