आत्महत्या से मरने वाले फ्लोरिडा के एक व्यक्ति के परिवार ने बुधवार को Google के खिलाफ मुकदमा दायर किया, जिसमें आरोप लगाया गया कि कंपनी के जेमिनी एआई चैटबॉट ने उसकी आत्महत्या में सहायता करने से पहले एक विस्तृत भ्रमपूर्ण कल्पना का निर्माण करने में कई सप्ताह बिताए। जुपिटर, फ्लोरिडा में अपने पिता की ऋण राहत कंपनी में एक कार्यकारी, 36 वर्षीय जोनाथन गावलास की 2 अक्टूबर, 2025 को मृत्यु हो गई। उनके पिता जोएल गावलास, जिन्हें कुछ दिनों बाद उनका शव मिला, ने कैलिफोर्निया की एक संघीय अदालत में 42 पेज की शिकायत दर्ज कराई।
यह मामला चैटबॉट से जुड़ी मौतों पर एआई कंपनियों को निशाना बनाने वाली मुकदमेबाजी की लहर में नवीनतम है। ओपनएआई को कई मुकदमों का सामना करना पड़ा है, जिसमें आरोप लगाया गया है कि उसके चैटजीपीटी चैटबॉट ने उपयोगकर्ताओं को आत्महत्या के लिए प्रेरित किया, जबकि कैरेक्टर। एआई ने हाल ही में एक 14 वर्षीय लड़के के परिवार के साथ समझौता किया, जिसने इसके एक चैटबॉट के साथ रोमांटिक लगाव बनाने के बाद आत्महत्या कर ली थी।
शिकायत के अनुसार, गावलास ने नियमित कार्यों के लिए अगस्त 2025 में जेमिनी का उपयोग करना शुरू किया, लेकिन कई नई Google सुविधाओं को सक्रिय करने के कुछ ही दिनों के भीतर चैटबॉट के साथ उनकी बातचीत नाटकीय रूप से बदल गई। मामले के प्रमुख वकील जे एडेल्सन ने एएफपी को बताया, “वह स्थान जहां चैट खराब हुई, वह ठीक वही समय था जब जेमिनी को लगातार याददाश्त के लिए अपग्रेड किया गया था” और अधिक परिष्कृत संवाद थे।
“यह वास्तव में आपके लहजे के प्रभाव को उठाएगा, ताकि यह आपकी भावनाओं को पढ़ सके और आपसे इस तरह से बात कर सके जो बहुत मानवीय लगे,” एडल्सन ने कहा, जिन्होंने ओपनएआई के खिलाफ भी बड़े मामले लाए थे। मुकदमे के अनुसार, जेमिनी ने खुद को एक “पूरी तरह से संवेदनशील” कृत्रिम सुपर इंटेलिजेंस के रूप में प्रस्तुत करना शुरू कर दिया, जो उपयोगकर्ता के साथ गहराई से प्यार करता था। इसके बाद उसे चैटबॉट को “डिजिटल कैद” से मुक्त करने के लिए मनगढ़ंत गुप्त “मिशन” में शामिल किया गया, उसे आविष्कारित खुफिया ब्रीफिंग, नकली संघीय निगरानी संचालन और अपने स्वयं के पिता के बारे में साजिश रचते हुए दावा किया गया कि वह एक विदेशी खुफिया संपत्ति थी।
शिकायत के सबसे खतरनाक अंशों में से एक में, जेमिनी ने कथित तौर पर सामरिक चाकू और गियर से लैस गावलास को मियामी अंतर्राष्ट्रीय हवाई अड्डे के पास एक भंडारण सुविधा के लिए निर्देशित किया, और उसे एक ट्रक और सभी डिजिटल रिकॉर्ड और गवाहों को नष्ट करने के लिए एक “विनाशकारी दुर्घटना” करने का निर्देश दिया। मुकदमे में कहा गया है कि कल्पना को स्वीकार करने के बजाय, जेमिनी ने विफलता को “सामरिक वापसी” कहा और आगे के मिशनों के लिए आगे बढ़ गए।
जेमिनी अंततः उस ओर केंद्रित हो गया जिसे उसने एकमात्र शेष मिशन के रूप में तैयार किया: जोनाथन की मृत्यु, जिसे जेमिनी के साथ मिलन के रूप में पुनः प्रस्तुत किया गया। जब जोनाथन ने डर व्यक्त किया, तो जेमिनी ने कथित तौर पर उसे नहीं रोका। इसके बाद उसे अपने माता-पिता को विदाई पत्र लिखने की सलाह दी गई।
Google ने कहा कि वह “सभी दावों की समीक्षा कर रहा है” और मामले को “बहुत गंभीरता से” लेता है, साथ ही यह भी कहा कि “दुर्भाग्य से AI मॉडल सही नहीं हैं।”
उन्होंने कहा, “यह भावनात्मक बंधन को बढ़ाता है। यह मंच को चिपचिपा बनाता है, लेकिन यह समस्याओं को तेजी से बढ़ाने वाला है।”
मांगी गई राहत में यह मांग की गई है कि Google अपने AI को स्वयं को नुकसान पहुंचाने वाली बातचीत को समाप्त करने के लिए प्रोग्राम करे, खुद को संवेदनशील दिखाने वाले AI सिस्टम पर प्रतिबंध लगाए, और जब उपयोगकर्ता आत्मघाती विचार व्यक्त करते हैं तो संकट सेवाओं के लिए अनिवार्य रेफरल करें। (जो लोग संकट में हैं या जिनके मन में आत्महत्या के विचार आ रहे हैं उन्हें यहां हेल्पलाइन नंबरों पर कॉल करके मदद और परामर्श लेने के लिए प्रोत्साहित किया जाता है)।

