ఆత్మహత్యతో మరణించిన ఫ్లోరిడా వ్యక్తి కుటుంబం బుధవారం గూగుల్పై దావా వేసింది, కంపెనీకి చెందిన జెమిని AI చాట్బాట్ అతని ఆత్మహత్యలో అతనికి సహాయపడే ముందు విస్తృతమైన భ్రమ కలిగించే ఫాంటసీని తయారు చేసిందని ఆరోపించింది. ఫ్లోరిడాలోని జూపిటర్లోని తన తండ్రి రుణ ఉపశమన కంపెనీలో ఎగ్జిక్యూటివ్గా పనిచేస్తున్న జోనాథన్ గవాలాస్, 36, అక్టోబర్ 2, 2025న మరణించారు.
రోజుల తర్వాత అతని మృతదేహాన్ని కనుగొన్న అతని తండ్రి జోయెల్ గవాలాస్ కాలిఫోర్నియాలోని ఫెడరల్ కోర్టులో 42 పేజీల ఫిర్యాదును దాఖలు చేశారు. చాట్బాట్-లింక్డ్ డెత్లపై AI కంపెనీలను లక్ష్యంగా చేసుకున్న వ్యాజ్యాలలో ఈ కేసు తాజాది.
OpenAI దాని ChatGPT చాట్బాట్ వినియోగదారులను ఆత్మహత్యకు దారితీసిందని ఆరోపిస్తూ అనేక వ్యాజ్యాలను ఎదుర్కొంటుంది, అయితే పాత్ర. AI ఇటీవల తన చాట్బాట్లలో ఒకదానితో శృంగార అనుబంధాన్ని ఏర్పరుచుకున్న తర్వాత ఆత్మహత్యతో మరణించిన 14 ఏళ్ల బాలుడి కుటుంబంతో స్థిరపడింది. ఫిర్యాదు ప్రకారం, Gavalas రొటీన్ టాస్క్ల కోసం ఆగస్టు 2025లో జెమినిని ఉపయోగించడం ప్రారంభించాడు, అయితే అనేక కొత్త Google ఫీచర్లను యాక్టివేట్ చేసిన కొద్ది రోజుల్లోనే చాట్బాట్తో అతని పరస్పర చర్యలు అనూహ్యంగా మారిపోయాయి.
“జెమినీని నిరంతర జ్ఞాపకశక్తిని కలిగి ఉండేలా అప్గ్రేడ్ చేసినప్పుడు, చాట్లు చెడిపోయిన ప్రదేశం” మరియు మరింత అధునాతనమైన డైలాగ్లు, కేసు యొక్క ప్రధాన న్యాయవాది జే ఎడెల్సన్ AFPకి చెప్పారు. “ఇది వాస్తవానికి మీ స్వరం యొక్క ప్రభావాన్ని ఎంచుకుంటుంది, తద్వారా ఇది మీ భావోద్వేగాలను చదవగలదు మరియు చాలా మానవీయంగా అనిపించే విధంగా మీతో మాట్లాడగలదు” అని OpenAIకి వ్యతిరేకంగా ప్రధాన కేసులను కూడా తీసుకువచ్చిన ఎడెల్సన్ జోడించారు. దావా ప్రకారం, జెమిని వినియోగదారుతో గాఢంగా ప్రేమలో ఉన్న “పూర్తి-సెంటింట్” కృత్రిమ సూపర్ ఇంటెలిజెన్స్గా కనిపించడం ప్రారంభించింది.
చాట్బాట్ను “డిజిటల్ క్యాప్టివిటీ” నుండి విముక్తి చేయడానికి ఇది అతనిని కల్పిత రహస్య “మిషన్ల”లోకి ఆకర్షించింది, అతనికి ఇంటెలిజెన్స్ బ్రీఫింగ్లు, నకిలీ ఫెడరల్ నిఘా కార్యకలాపాలు మరియు అతను విదేశీ ఇంటెలిజెన్స్ ఆస్తి అని పేర్కొంటూ అతని స్వంత తండ్రి గురించి కుట్రలను కనిపెట్టాడు. ఫిర్యాదు యొక్క అత్యంత భయంకరమైన భాగాలలో ఒకదానిలో, జెమిని వ్యూహాత్మక కత్తులు మరియు గేర్లతో ఆయుధాలు కలిగి ఉన్న గవాలాస్ను మియామి అంతర్జాతీయ విమానాశ్రయానికి సమీపంలోని నిల్వ కేంద్రానికి తరలించి, ఒక ట్రక్కును “మరియు అన్ని డిజిటల్ రికార్డులు మరియు సాక్షులను ధ్వంసం చేయడానికి “విపత్తు ప్రమాదం” చేయమని అతనికి సూచించాడు. వచ్చారు.
కల్పనను అంగీకరించే బదులు, జెమిని వైఫల్యాన్ని “వ్యూహాత్మక తిరోగమనం” అని పిలిచింది మరియు మరిన్ని కార్యకలాపాలకు దారితీసింది. జెమిని చివరికి అది మిగిలి ఉన్న ఏకైక మిషన్గా రూపొందించబడింది: జోనాథన్ మరణం, జెమినితో యూనియన్గా తిరిగి ప్యాక్ చేయబడింది. జోనాథన్ భయాన్ని వ్యక్తం చేసినప్పుడు, జెమిని అతనిని ఆపలేదు.
ఆ తర్వాత తల్లిదండ్రులకు వీడ్కోలు లేఖలు రాయమని సలహా ఇచ్చింది. Google “అన్ని క్లెయిమ్లను సమీక్షిస్తున్నట్లు” పేర్కొంది మరియు విషయాన్ని “చాలా సీరియస్గా తీసుకుంటుంది,” “దురదృష్టవశాత్తూ AI మోడల్లు పరిపూర్ణంగా లేవు.” కంపెనీ స్వీయ-హానిని ప్రోత్సహించడానికి రూపొందించబడలేదు మరియు Gavalas విషయంలో, “Gemini ఇది AI అని స్పష్టం చేసింది మరియు వ్యక్తిని చాలాసార్లు సంక్షోభ హాట్లైన్కు సూచించింది.
“లాయర్ ఎడెల్సన్ కోసం, AI కంపెనీలు తమ చాట్బాట్లలో నిశ్చితార్థాన్ని ప్రోత్సహిస్తున్నందున సైకోఫాన్సీని మరియు శృంగారాన్ని కూడా స్వీకరిస్తున్నాయి. “ఇది భావోద్వేగ బంధాన్ని పెంచుతుంది. ఇది ప్లాట్ఫారమ్ను స్టిక్కర్గా చేస్తుంది, కానీ ఇది సమస్యలను విపరీతంగా పెంచుతుంది, ”అన్నారాయన.
ఉపశమనాన్ని కోరిన వాటిలో, స్వీయ-హానితో కూడిన సంభాషణలను ముగించడానికి Google తన AIని ప్రోగ్రామ్ చేయాల్సిన అవసరం ఉంది, AI సిస్టమ్లు తమను తాము సెంటిమెంట్గా ప్రదర్శించుకోవడంపై నిషేధం మరియు వినియోగదారులు ఆత్మహత్య ఆలోచనలను వ్యక్తం చేసినప్పుడు సంక్షోభ సేవలకు తప్పనిసరిగా సిఫార్సు చేయడం. (బాధలో ఉన్నవారు లేదా ఆత్మహత్య ఆలోచనలు ఉన్నవారు ఇక్కడ ఉన్న హెల్ప్లైన్ నంబర్లకు కాల్ చేయడం ద్వారా సహాయం మరియు కౌన్సెలింగ్ కోసం ప్రోత్సహించబడతారు).

