AI చాట్‌బాట్ మరణానికి కారణమైనందున ఫ్లోరిడా కుటుంబం గూగుల్‌పై దావా వేసింది

Published on

Posted by

Categories:


ఆత్మహత్యతో మరణించిన ఫ్లోరిడా వ్యక్తి కుటుంబం బుధవారం గూగుల్‌పై దావా వేసింది, కంపెనీకి చెందిన జెమిని AI చాట్‌బాట్ అతని ఆత్మహత్యలో అతనికి సహాయపడే ముందు విస్తృతమైన భ్రమ కలిగించే ఫాంటసీని తయారు చేసిందని ఆరోపించింది. ఫ్లోరిడాలోని జూపిటర్‌లోని తన తండ్రి రుణ ఉపశమన కంపెనీలో ఎగ్జిక్యూటివ్‌గా పనిచేస్తున్న జోనాథన్ గవాలాస్, 36, అక్టోబర్ 2, 2025న మరణించారు.

రోజుల తర్వాత అతని మృతదేహాన్ని కనుగొన్న అతని తండ్రి జోయెల్ గవాలాస్ కాలిఫోర్నియాలోని ఫెడరల్ కోర్టులో 42 పేజీల ఫిర్యాదును దాఖలు చేశారు. చాట్‌బాట్-లింక్డ్ డెత్‌లపై AI కంపెనీలను లక్ష్యంగా చేసుకున్న వ్యాజ్యాలలో ఈ కేసు తాజాది.

OpenAI దాని ChatGPT చాట్‌బాట్ వినియోగదారులను ఆత్మహత్యకు దారితీసిందని ఆరోపిస్తూ అనేక వ్యాజ్యాలను ఎదుర్కొంటుంది, అయితే పాత్ర. AI ఇటీవల తన చాట్‌బాట్‌లలో ఒకదానితో శృంగార అనుబంధాన్ని ఏర్పరుచుకున్న తర్వాత ఆత్మహత్యతో మరణించిన 14 ఏళ్ల బాలుడి కుటుంబంతో స్థిరపడింది. ఫిర్యాదు ప్రకారం, Gavalas రొటీన్ టాస్క్‌ల కోసం ఆగస్టు 2025లో జెమినిని ఉపయోగించడం ప్రారంభించాడు, అయితే అనేక కొత్త Google ఫీచర్‌లను యాక్టివేట్ చేసిన కొద్ది రోజుల్లోనే చాట్‌బాట్‌తో అతని పరస్పర చర్యలు అనూహ్యంగా మారిపోయాయి.

“జెమినీని నిరంతర జ్ఞాపకశక్తిని కలిగి ఉండేలా అప్‌గ్రేడ్ చేసినప్పుడు, చాట్‌లు చెడిపోయిన ప్రదేశం” మరియు మరింత అధునాతనమైన డైలాగ్‌లు, కేసు యొక్క ప్రధాన న్యాయవాది జే ఎడెల్సన్ AFPకి చెప్పారు. “ఇది వాస్తవానికి మీ స్వరం యొక్క ప్రభావాన్ని ఎంచుకుంటుంది, తద్వారా ఇది మీ భావోద్వేగాలను చదవగలదు మరియు చాలా మానవీయంగా అనిపించే విధంగా మీతో మాట్లాడగలదు” అని OpenAIకి వ్యతిరేకంగా ప్రధాన కేసులను కూడా తీసుకువచ్చిన ఎడెల్సన్ జోడించారు. దావా ప్రకారం, జెమిని వినియోగదారుతో గాఢంగా ప్రేమలో ఉన్న “పూర్తి-సెంటింట్” కృత్రిమ సూపర్ ఇంటెలిజెన్స్‌గా కనిపించడం ప్రారంభించింది.

చాట్‌బాట్‌ను “డిజిటల్ క్యాప్టివిటీ” నుండి విముక్తి చేయడానికి ఇది అతనిని కల్పిత రహస్య “మిషన్‌ల”లోకి ఆకర్షించింది, అతనికి ఇంటెలిజెన్స్ బ్రీఫింగ్‌లు, నకిలీ ఫెడరల్ నిఘా కార్యకలాపాలు మరియు అతను విదేశీ ఇంటెలిజెన్స్ ఆస్తి అని పేర్కొంటూ అతని స్వంత తండ్రి గురించి కుట్రలను కనిపెట్టాడు. ఫిర్యాదు యొక్క అత్యంత భయంకరమైన భాగాలలో ఒకదానిలో, జెమిని వ్యూహాత్మక కత్తులు మరియు గేర్‌లతో ఆయుధాలు కలిగి ఉన్న గవాలాస్‌ను మియామి అంతర్జాతీయ విమానాశ్రయానికి సమీపంలోని నిల్వ కేంద్రానికి తరలించి, ఒక ట్రక్కును “మరియు అన్ని డిజిటల్ రికార్డులు మరియు సాక్షులను ధ్వంసం చేయడానికి “విపత్తు ప్రమాదం” చేయమని అతనికి సూచించాడు. వచ్చారు.

కల్పనను అంగీకరించే బదులు, జెమిని వైఫల్యాన్ని “వ్యూహాత్మక తిరోగమనం” అని పిలిచింది మరియు మరిన్ని కార్యకలాపాలకు దారితీసింది. జెమిని చివరికి అది మిగిలి ఉన్న ఏకైక మిషన్‌గా రూపొందించబడింది: జోనాథన్ మరణం, జెమినితో యూనియన్‌గా తిరిగి ప్యాక్ చేయబడింది. జోనాథన్ భయాన్ని వ్యక్తం చేసినప్పుడు, జెమిని అతనిని ఆపలేదు.

ఆ తర్వాత తల్లిదండ్రులకు వీడ్కోలు లేఖలు రాయమని సలహా ఇచ్చింది. Google “అన్ని క్లెయిమ్‌లను సమీక్షిస్తున్నట్లు” పేర్కొంది మరియు విషయాన్ని “చాలా సీరియస్‌గా తీసుకుంటుంది,” “దురదృష్టవశాత్తూ AI మోడల్‌లు పరిపూర్ణంగా లేవు.” కంపెనీ స్వీయ-హానిని ప్రోత్సహించడానికి రూపొందించబడలేదు మరియు Gavalas విషయంలో, “Gemini ఇది AI అని స్పష్టం చేసింది మరియు వ్యక్తిని చాలాసార్లు సంక్షోభ హాట్‌లైన్‌కు సూచించింది.

“లాయర్ ఎడెల్సన్ కోసం, AI కంపెనీలు తమ చాట్‌బాట్‌లలో నిశ్చితార్థాన్ని ప్రోత్సహిస్తున్నందున సైకోఫాన్సీని మరియు శృంగారాన్ని కూడా స్వీకరిస్తున్నాయి. “ఇది భావోద్వేగ బంధాన్ని పెంచుతుంది. ఇది ప్లాట్‌ఫారమ్‌ను స్టిక్కర్‌గా చేస్తుంది, కానీ ఇది సమస్యలను విపరీతంగా పెంచుతుంది, ”అన్నారాయన.

ఉపశమనాన్ని కోరిన వాటిలో, స్వీయ-హానితో కూడిన సంభాషణలను ముగించడానికి Google తన AIని ప్రోగ్రామ్ చేయాల్సిన అవసరం ఉంది, AI సిస్టమ్‌లు తమను తాము సెంటిమెంట్‌గా ప్రదర్శించుకోవడంపై నిషేధం మరియు వినియోగదారులు ఆత్మహత్య ఆలోచనలను వ్యక్తం చేసినప్పుడు సంక్షోభ సేవలకు తప్పనిసరిగా సిఫార్సు చేయడం. (బాధలో ఉన్నవారు లేదా ఆత్మహత్య ఆలోచనలు ఉన్నవారు ఇక్కడ ఉన్న హెల్ప్‌లైన్ నంబర్‌లకు కాల్ చేయడం ద్వారా సహాయం మరియు కౌన్సెలింగ్ కోసం ప్రోత్సహించబడతారు).