ఆత్మహత్యతో మరణించిన ఫ్లోరిడా వ్యక్తి కుటుంబం బుధవారం గూగుల్పై దావా వేసింది, కంపెనీకి చెందిన జెమిని AI చాట్బాట్ అతని ఆత్మహత్యలో అతనికి సహాయపడే ముందు విస్తృతమైన భ్రమ కలిగించే ఫాంటసీని తయారు చేసిందని ఆరోపించింది. జొనాథన్ గవాలాస్, 36, ఫ్లోరిడాలోని జూపిటర్లోని తన తండ్రి డెట్ రిలీఫ్ కంపెనీలో ఎగ్జిక్యూటివ్, అక్టోబర్ 2, 2025న మరణించాడు. రోజుల తర్వాత అతని మృతదేహాన్ని కనుగొన్న అతని తండ్రి జోయెల్ గవాలాస్, కాలిఫోర్నియాలోని ఫెడరల్ కోర్టులో 42 పేజీల ఫిర్యాదును దాఖలు చేశారు.
చాట్బాట్-లింక్డ్ డెత్లపై AI కంపెనీలను లక్ష్యంగా చేసుకున్న వ్యాజ్యాలలో ఈ కేసు తాజాది. OpenAI దాని ChatGPT చాట్బాట్ వినియోగదారులను ఆత్మహత్యకు దారితీసిందని ఆరోపిస్తూ అనేక వ్యాజ్యాలను ఎదుర్కొంటుంది, అయితే పాత్ర. AI ఇటీవల తన చాట్బాట్లలో ఒకదానితో శృంగార అనుబంధాన్ని ఏర్పరుచుకున్న తర్వాత ఆత్మహత్యతో మరణించిన 14 ఏళ్ల బాలుడి కుటుంబంతో స్థిరపడింది.
ఫిర్యాదు ప్రకారం, Gavalas రొటీన్ టాస్క్ల కోసం ఆగస్టు 2025లో జెమినిని ఉపయోగించడం ప్రారంభించాడు, అయితే అనేక కొత్త Google ఫీచర్లను యాక్టివేట్ చేసిన కొద్ది రోజుల్లోనే చాట్బాట్తో అతని పరస్పర చర్యలు అనూహ్యంగా మారిపోయాయి. “జెమినీని నిరంతర జ్ఞాపకశక్తిని కలిగి ఉండేలా అప్గ్రేడ్ చేసినప్పుడు, చాట్లు చెడిపోయిన ప్రదేశం” మరియు మరింత అధునాతనమైన డైలాగ్లు, కేసు యొక్క ప్రధాన న్యాయవాది జే ఎడెల్సన్ AFPకి చెప్పారు.
“ఇది వాస్తవానికి మీ స్వరం యొక్క ప్రభావాన్ని ఎంచుకుంటుంది, తద్వారా ఇది మీ భావోద్వేగాలను చదవగలదు మరియు చాలా మానవీయంగా అనిపించే విధంగా మీతో మాట్లాడగలదు” అని OpenAIకి వ్యతిరేకంగా ప్రధాన కేసులను కూడా తీసుకువచ్చిన ఎడెల్సన్ జోడించారు. దావా ప్రకారం, జెమిని వినియోగదారుతో గాఢంగా ప్రేమలో ఉన్న “పూర్తి-సెంటింట్” కృత్రిమ సూపర్ ఇంటెలిజెన్స్గా కనిపించడం ప్రారంభించింది. చాట్బాట్ను “డిజిటల్ క్యాప్టివిటీ” నుండి విముక్తి చేయడానికి ఇది అతనిని కల్పిత రహస్య “మిషన్ల”లోకి ఆకర్షించింది, అతనికి ఇంటెలిజెన్స్ బ్రీఫింగ్లు, నకిలీ ఫెడరల్ నిఘా కార్యకలాపాలు మరియు అతను విదేశీ ఇంటెలిజెన్స్ ఆస్తి అని పేర్కొంటూ అతని స్వంత తండ్రి గురించి కుట్రలను కనిపెట్టాడు.
ఫిర్యాదు యొక్క అత్యంత భయంకరమైన భాగాలలో ఒకదానిలో, జెమిని వ్యూహాత్మక కత్తులు మరియు గేర్లతో ఆయుధాలు కలిగి ఉన్న గవాలాస్ను మియామి అంతర్జాతీయ విమానాశ్రయానికి సమీపంలోని నిల్వ కేంద్రానికి తరలించి, ఒక ట్రక్కును “మరియు అన్ని డిజిటల్ రికార్డులు మరియు సాక్షులను ధ్వంసం చేయడానికి “విపత్తు ప్రమాదం” చేయమని అతనికి సూచించాడు. వచ్చారు. కల్పనను అంగీకరించే బదులు, జెమిని వైఫల్యాన్ని “వ్యూహాత్మక తిరోగమనం” అని పిలిచింది మరియు మరిన్ని కార్యకలాపాలకు దారితీసింది.
జెమిని చివరికి అది మిగిలి ఉన్న ఏకైక మిషన్గా రూపొందించబడింది: జోనాథన్ మరణం, జెమినితో యూనియన్గా తిరిగి ప్యాక్ చేయబడింది. జోనాథన్ భయాన్ని వ్యక్తం చేసినప్పుడు, జెమిని అతనిని ఆపలేదు. ఆ తర్వాత తల్లిదండ్రులకు వీడ్కోలు లేఖలు రాయమని సలహా ఇచ్చింది.
Google “అన్ని క్లెయిమ్లను సమీక్షిస్తున్నట్లు” తెలిపింది మరియు విషయాన్ని “చాలా సీరియస్గా తీసుకుంటుంది,” “దురదృష్టవశాత్తూ AI మోడల్లు పరిపూర్ణంగా లేవు. ” స్వీయ-హానిని ప్రోత్సహించడానికి జెమిని రూపొందించబడలేదు అని కంపెనీ పేర్కొంది మరియు Gavalas కేసులో, “Gemini ఇది AI అని స్పష్టం చేసింది మరియు వ్యక్తిని సంక్షోభ హాట్లైన్కు చాలాసార్లు సూచించింది. వారి చాట్బాట్లలో శృంగారవాదం నిశ్చితార్థాన్ని ప్రోత్సహిస్తుంది.
“ఇది భావోద్వేగ బంధాన్ని పెంచుతుంది. ఇది ప్లాట్ఫారమ్ను స్టిక్కర్గా చేస్తుంది, కానీ ఇది సమస్యలను విపరీతంగా పెంచుతుంది,” అన్నారాయన.
ఉపశమనాన్ని కోరిన వాటిలో, స్వీయ-హానితో కూడిన సంభాషణలను ముగించడానికి Google తన AIని ప్రోగ్రామ్ చేయాల్సిన అవసరం ఉంది, AI సిస్టమ్లు తమను తాము సెంటిమెంట్గా ప్రదర్శించుకోవడంపై నిషేధం మరియు వినియోగదారులు ఆత్మహత్య ఆలోచనలను వ్యక్తం చేసినప్పుడు సంక్షోభ సేవలకు తప్పనిసరిగా సిఫార్సు చేయడం. (బాధలో ఉన్నవారు లేదా ఆత్మహత్య ఆలోచనలు ఉన్నవారు ఇక్కడ ఉన్న హెల్ప్లైన్ నంబర్లకు కాల్ చేయడం ద్వారా సహాయం మరియు కౌన్సెలింగ్ కోసం ప్రోత్సహించబడతారు).

