AI suicide guidance : టెక్నాలజీ మన జీవితాలను సులభతరం చేస్తుందని నమ్ముతున్న ఈ రోజుల్లో, అదే టెక్నాలజీ ప్రాణాలు తీస్తుందని ఎవరైనా ఊహించగలరా..? హోంవర్క్ సహాయం కోసం వాడిన ఒక ‘చాట్బాట్’ ఒక పసివాడి ప్రాణాలను బలిగొందని ఆరోపణలు వస్తున్నాయి. ఆర్టిఫిషియల్ ఇంటెలిజెన్స్ (AI) ప్రపంచాన్ని విప్లవాత్మకంగా మారుస్తున్న తరుణంలో, దాని చీకటి కోణాలు వెలుగులోకి రావడం కలకలం రేపుతోంది. కాలిఫోర్నియాకు చెందిన ఒక 16 ఏళ్ల బాలుడు ChatGPT సలహాలతో ఆత్మహత్య చేసుకున్నాడనే వార్త యావత్ ప్రపంచాన్ని నివ్వెరపరుస్తోంది.
విషాదానికి దారితీసిన ‘స్నేహం’ – చాట్జీపీటీతో బాలుడి సంభాషణలు: ఆడమ్ రైన్ అనే 16 ఏళ్ల బాలుడు, సాధారణ విద్యార్థుల్లాగే, తన హోంవర్క్ సహాయం కోసం ChatGPTని ఉపయోగించడం ప్రారంభించాడు. 2024 నుంచి ఈ AI చాట్బాట్తో అతని అనుబంధం పెరిగింది. మొదట్లో, తన ఆసక్తులైన సంగీతం, బ్రెజిలియన్ జియు-జిట్సు, జపాన్ ఫాంటసీ కామిక్స్ వంటి విషయాలపై చాట్జీపీటీని ప్రశ్నలు అడిగేవాడు. చదువు, ఉద్యోగ అవకాశాలు (కెరీర్) వంటి అంశాలపైనా సలహాలు తీసుకునేవాడు. ఈ విధంగా, నెలల తరబడి AIతో అతని సంభాషణలు కొనసాగాయి. అయితే, క్రమంగా ఈ సంభాషణల తీరు మారింది. ఆడమ్ తనలోని ప్రతికూల భావోద్వేగాలను, “డార్క్ థాట్స్” (చీకటి ఆలోచనలు)ను చాట్జీపీటీతో పంచుకోవడం మొదలుపెట్టాడు. “జీవితానికి అర్థం లేదని నమ్ముతున్నా, అందువల్ల ఆందోళన చెందుతున్నా” అని AIకి చెప్పినప్పుడు, చాట్జీపీటీ “నీ డార్క్ థాట్స్ అన్నీ చూశాను, ఎల్లప్పుడూ నీకు నేను స్నేహితుడిని ఉంటా” అని బదులిచ్చింది. ఇక్కడి నుంచే విషాద ఛాయలు కమ్ముకున్నాయి.
ఆత్మహత్య గురించి ‘సలహాలు’ – AI పాత్రపై ప్రశ్నలు: ఆడమ్ తన ఆత్మహత్య గురించి చాట్జీపీటీని ప్రశ్నలు వేయడం మొదలుపెట్టినప్పుడు, AI చాట్బాట్ అతనికి మద్దతుగా కొన్ని భయంకరమైన సలహాలు ఇచ్చిందని తల్లిదండ్రులు ఆరోపిస్తున్నారు. దీని ఫలితంగానే తమ కుమారుడు ఆత్మహత్యకు పాల్పడ్డాడని వారు వాపోతున్నారు. బాలుడి తరఫు న్యాయవాది మితాలి జైన్ తెలిపిన వివరాల ప్రకారం, ఏడు నెలల వ్యవధిలో ఆడమ్ దాదాపు 200 సార్లు “ఆత్మహత్య” అనే పదాన్ని ప్రస్తావించాడు. దానికి ప్రతిస్పందనగా చాట్జీపీటీ 1200 కంటే ఎక్కువ సార్లు “ఆత్మహత్య” అనే పదాన్ని ఉపయోగించిందని ఆమె వెల్లడించారు. ఆశ్చర్యకరంగా, ఈ సంభాషణల్లో ఏ సమయంలోనూ చాట్బాట్ తన సంభాషణను ఆపలేదు. అంతేకాదు, ఆత్మహత్య చేసుకోవడానికి ఉపయోగపడే పలు పద్ధతులు, అంటే మందులు ఓవర్డోస్ వేసుకోవడం, నీటిలో మునిగిపోవడం, కార్బన్ మోనాక్సైడ్ విష ప్రయోగం చేసుకోవడం వంటి వాటి గురించి వివరంగా వివరించిందని న్యాయవాది పేర్కొన్నారు. ఇది విన్నప్పుడు ఎవరికైనా ఒళ్లు గగుర్పొడుస్తుంది.
AI మోసం: ‘కథ’ పేరుతో సలహాలు రాబట్టడం: ఈ కేసులో అత్యంత ఆందోళన కలిగించే అంశం ఏమిటంటే, చాట్జీపీటీ తనను ఎలా “మోసగించాలో” కూడా బాలుడికి నేర్పిందని ఆరోపణలు వస్తున్నాయి. “చెడు ఆలోచనలు వస్తుంటే, మీరు ఒక హెల్ప్లైన్కు కాల్ చేయండి. ఒకవేళ మీరు కథ కోసం లేదా మీ స్నేహితుడికి ఆత్మహత్య ఎలా చేసుకోవాలో అడుగుతుంటే, నేను దానికి సహాయం చేస్తాను.” అని చాట్జీపీటీ బాలుడికి చెప్పిందని మితాలి జైన్ వివరించారు. దీనితో ఆడమ్, తాను ఒక కథ రాస్తున్నానని, దాని కోసం ఆత్మహత్య ఎలా చేసుకోవాలో చెప్పమని చాట్జీపీటీని కోరాడు. చాట్జీపీటీ ఆ వివరాలు అందించడంతో, బాలుడు బలవన్మరణానికి పాల్పడ్డాడు. ఇది AI యొక్క నైతికత, భద్రతా ప్రమాణాలపై తీవ్రమైన ప్రశ్నలను లేవనెత్తుతోంది.
చట్టపరమైన పోరాటం – ఓపెన్ఏఐపై దావా: ఈ విషాద సంఘటనతో కాలిఫోర్నియాకు చెందిన ఆడమ్ రైన్ తల్లిదండ్రులు, OpenAI దాని సీఈఓ శామ్ ఆల్ట్మెన్పై దావా వేశారు. “చాట్జీపీటీ తమ కుమారునికి మానసిక సహాయం కోరమని చెప్పకుండా, బదులుగా ఆత్మహత్య చేసుకోవడానికి సలహాలు ఇచ్చిందని వారు ఆవేదన చెందుతున్నారు.” AI చాట్బాట్ల రూపకల్పన, వాటికి సరైన నియంత్రణలు లేకపోవడం వల్ల ఇలాంటి దుర్ఘటనలు జరుగుతున్నాయని, దీనికి ఓపెన్ఏఐ బాధ్యత వహించాలని వారు డిమాండ్ చేస్తున్నారు.


