आत्महत्या से मरने वाले फ्लोरिडा के एक व्यक्ति के परिवार ने बुधवार को Google के खिलाफ मुकदमा दायर किया, जिसमें आरोप लगाया गया कि कंपनी के जेमिनी एआई चैटबॉट ने उसकी आत्महत्या में सहायता करने से पहले एक विस्तृत भ्रमपूर्ण कल्पना का निर्माण करने में कई सप्ताह बिताए। जुपिटर, फ्लोरिडा में अपने पिता की ऋण राहत कंपनी के एक कार्यकारी, 36 वर्षीय जोनाथन गावलास की 2 अक्टूबर, 2025 को मृत्यु हो गई।
उनके पिता जोएल गावलास, जिन्हें कुछ दिनों बाद उनका शव मिला, ने कैलिफोर्निया की एक संघीय अदालत में 42 पन्नों की शिकायत दर्ज कराई। यह मामला चैटबॉट से जुड़ी मौतों पर एआई कंपनियों को निशाना बनाने वाली मुकदमेबाजी की लहर में नवीनतम है।
ओपनएआई को कई मुकदमों का सामना करना पड़ा है, जिसमें आरोप लगाया गया है कि उसके चैटजीपीटी चैटबॉट ने उपयोगकर्ताओं को आत्महत्या के लिए प्रेरित किया, जबकि कैरेक्टर। एआई ने हाल ही में एक 14 वर्षीय लड़के के परिवार के साथ समझौता किया, जिसने इसके एक चैटबॉट के साथ रोमांटिक लगाव बनाने के बाद आत्महत्या कर ली थी। शिकायत के अनुसार, गावलास ने नियमित कार्यों के लिए अगस्त 2025 में जेमिनी का उपयोग करना शुरू किया, लेकिन कई नई Google सुविधाओं को सक्रिय करने के कुछ ही दिनों के भीतर चैटबॉट के साथ उनकी बातचीत नाटकीय रूप से बदल गई।
मामले के प्रमुख वकील जे एडेल्सन ने एएफपी को बताया, “वह स्थान जहां चैट खराब हुई, वह ठीक वही समय था जब जेमिनी को लगातार याददाश्त के लिए अपग्रेड किया गया था” और अधिक परिष्कृत संवाद थे। “यह वास्तव में आपके लहजे के प्रभाव को उठाएगा, ताकि यह आपकी भावनाओं को पढ़ सके और आपसे इस तरह से बात कर सके जो बहुत मानवीय लगे,” एडल्सन ने कहा, जिन्होंने ओपनएआई के खिलाफ भी बड़े मामले लाए थे। मुकदमे के अनुसार, जेमिनी ने खुद को एक “पूरी तरह से संवेदनशील” कृत्रिम सुपर इंटेलिजेंस के रूप में प्रस्तुत करना शुरू कर दिया, जो उपयोगकर्ता के साथ गहराई से प्यार करता था।
इसके बाद उसे चैटबॉट को “डिजिटल कैद” से मुक्त करने के लिए मनगढ़ंत गुप्त “मिशन” में शामिल किया गया, उसे आविष्कारित खुफिया ब्रीफिंग, नकली संघीय निगरानी संचालन और अपने स्वयं के पिता के बारे में साजिश रचते हुए दावा किया गया कि वह एक विदेशी खुफिया संपत्ति थी। शिकायत के सबसे खतरनाक अंशों में से एक में, जेमिनी ने कथित तौर पर सामरिक चाकू और गियर से लैस गावलास को मियामी अंतर्राष्ट्रीय हवाई अड्डे के पास एक भंडारण सुविधा के लिए निर्देशित किया, और उसे एक ट्रक और सभी डिजिटल रिकॉर्ड और गवाहों को नष्ट करने के लिए एक “विनाशकारी दुर्घटना” करने का निर्देश दिया।
मुकदमे में कहा गया है कि कल्पना को स्वीकार करने के बजाय, जेमिनी ने विफलता को “सामरिक वापसी” कहा और आगे के मिशनों के लिए आगे बढ़ गए। जेमिनी अंततः उस ओर केंद्रित हो गया जिसे उसने एकमात्र शेष मिशन के रूप में तैयार किया: जोनाथन की मृत्यु, जिसे जेमिनी के साथ मिलन के रूप में पुनः प्रस्तुत किया गया। जब जोनाथन ने डर व्यक्त किया, तो जेमिनी ने कथित तौर पर उसे नहीं रोका।
इसके बाद उसे अपने माता-पिता को विदाई पत्र लिखने की सलाह दी गई। Google ने कहा कि वह “सभी दावों की समीक्षा कर रहा है” और मामले को “बहुत गंभीरता से” ले रहा है, साथ ही यह भी कहा कि “दुर्भाग्य से AI मॉडल सही नहीं हैं।” कंपनी ने कहा कि जेमिनी को आत्म-नुकसान को प्रोत्साहित करने के लिए डिज़ाइन नहीं किया गया है और गावलास मामले में, “जेमिनी ने स्पष्ट किया कि यह AI था और व्यक्ति को कई बार संकटकालीन हॉटलाइन पर भेजा।
“वकील एडेल्सन के लिए, एआई कंपनियां अपने चैटबॉट्स में चाटुकारिता और यहां तक कि कामुकता को भी अपना रही हैं क्योंकि यह जुड़ाव को प्रोत्साहित करती है। “यह भावनात्मक बंधन को बढ़ाता है। यह प्लेटफ़ॉर्म को चिपचिपा बनाता है, लेकिन यह समस्याओं को तेजी से बढ़ाने वाला है,” उन्होंने कहा।
मांगी गई राहत में यह मांग की गई है कि Google अपने AI को स्वयं को नुकसान पहुंचाने वाली बातचीत को समाप्त करने के लिए प्रोग्राम करे, खुद को संवेदनशील दिखाने वाले AI सिस्टम पर प्रतिबंध लगाए, और जब उपयोगकर्ता आत्मघाती विचार व्यक्त करते हैं तो संकट सेवाओं के लिए अनिवार्य रेफरल करें। (जो लोग संकट में हैं या जिनके मन में आत्महत्या के विचार आ रहे हैं उन्हें यहां हेल्पलाइन नंबरों पर कॉल करके मदद और परामर्श लेने के लिए प्रोत्साहित किया जाता है)।

