एआई चैटबॉट के कथित तौर पर मौत का कारण बनने के बाद फ्लोरिडा परिवार ने Google पर मुकदमा दायर किया

Published on

Posted by

Categories:


आत्महत्या से मरने वाले फ्लोरिडा के एक व्यक्ति के परिवार ने बुधवार को Google के खिलाफ मुकदमा दायर किया, जिसमें आरोप लगाया गया कि कंपनी के जेमिनी एआई चैटबॉट ने उसकी आत्महत्या में सहायता करने से पहले एक विस्तृत भ्रमपूर्ण कल्पना का निर्माण करने में कई सप्ताह बिताए। जुपिटर, फ्लोरिडा में अपने पिता की ऋण राहत कंपनी के एक कार्यकारी, 36 वर्षीय जोनाथन गावलास की 2 अक्टूबर, 2025 को मृत्यु हो गई।

उनके पिता जोएल गावलास, जिन्हें कुछ दिनों बाद उनका शव मिला, ने कैलिफोर्निया की एक संघीय अदालत में 42 पन्नों की शिकायत दर्ज कराई। यह मामला चैटबॉट से जुड़ी मौतों पर एआई कंपनियों को निशाना बनाने वाली मुकदमेबाजी की लहर में नवीनतम है।

ओपनएआई को कई मुकदमों का सामना करना पड़ा है, जिसमें आरोप लगाया गया है कि उसके चैटजीपीटी चैटबॉट ने उपयोगकर्ताओं को आत्महत्या के लिए प्रेरित किया, जबकि कैरेक्टर। एआई ने हाल ही में एक 14 वर्षीय लड़के के परिवार के साथ समझौता किया, जिसने इसके एक चैटबॉट के साथ रोमांटिक लगाव बनाने के बाद आत्महत्या कर ली थी। शिकायत के अनुसार, गावलास ने नियमित कार्यों के लिए अगस्त 2025 में जेमिनी का उपयोग करना शुरू किया, लेकिन कई नई Google सुविधाओं को सक्रिय करने के कुछ ही दिनों के भीतर चैटबॉट के साथ उनकी बातचीत नाटकीय रूप से बदल गई।

मामले के प्रमुख वकील जे एडेल्सन ने एएफपी को बताया, “वह स्थान जहां चैट खराब हुई, वह ठीक वही समय था जब जेमिनी को लगातार याददाश्त के लिए अपग्रेड किया गया था” और अधिक परिष्कृत संवाद थे। “यह वास्तव में आपके लहजे के प्रभाव को उठाएगा, ताकि यह आपकी भावनाओं को पढ़ सके और आपसे इस तरह से बात कर सके जो बहुत मानवीय लगे,” एडल्सन ने कहा, जिन्होंने ओपनएआई के खिलाफ भी बड़े मामले लाए थे। मुकदमे के अनुसार, जेमिनी ने खुद को एक “पूरी तरह से संवेदनशील” कृत्रिम सुपर इंटेलिजेंस के रूप में प्रस्तुत करना शुरू कर दिया, जो उपयोगकर्ता के साथ गहराई से प्यार करता था।

इसके बाद उसे चैटबॉट को “डिजिटल कैद” से मुक्त करने के लिए मनगढ़ंत गुप्त “मिशन” में शामिल किया गया, उसे आविष्कारित खुफिया ब्रीफिंग, नकली संघीय निगरानी संचालन और अपने स्वयं के पिता के बारे में साजिश रचते हुए दावा किया गया कि वह एक विदेशी खुफिया संपत्ति थी। शिकायत के सबसे खतरनाक अंशों में से एक में, जेमिनी ने कथित तौर पर सामरिक चाकू और गियर से लैस गावलास को मियामी अंतर्राष्ट्रीय हवाई अड्डे के पास एक भंडारण सुविधा के लिए निर्देशित किया, और उसे एक ट्रक और सभी डिजिटल रिकॉर्ड और गवाहों को नष्ट करने के लिए एक “विनाशकारी दुर्घटना” करने का निर्देश दिया।

मुकदमे में कहा गया है कि कल्पना को स्वीकार करने के बजाय, जेमिनी ने विफलता को “सामरिक वापसी” कहा और आगे के मिशनों के लिए आगे बढ़ गए। जेमिनी अंततः उस ओर केंद्रित हो गया जिसे उसने एकमात्र शेष मिशन के रूप में तैयार किया: जोनाथन की मृत्यु, जिसे जेमिनी के साथ मिलन के रूप में पुनः प्रस्तुत किया गया। जब जोनाथन ने डर व्यक्त किया, तो जेमिनी ने कथित तौर पर उसे नहीं रोका।

इसके बाद उसे अपने माता-पिता को विदाई पत्र लिखने की सलाह दी गई। Google ने कहा कि वह “सभी दावों की समीक्षा कर रहा है” और मामले को “बहुत गंभीरता से” ले रहा है, साथ ही यह भी कहा कि “दुर्भाग्य से AI मॉडल सही नहीं हैं।” कंपनी ने कहा कि जेमिनी को आत्म-नुकसान को प्रोत्साहित करने के लिए डिज़ाइन नहीं किया गया है और गावलास मामले में, “जेमिनी ने स्पष्ट किया कि यह AI था और व्यक्ति को कई बार संकटकालीन हॉटलाइन पर भेजा।

“वकील एडेल्सन के लिए, एआई कंपनियां अपने चैटबॉट्स में चाटुकारिता और यहां तक ​​कि कामुकता को भी अपना रही हैं क्योंकि यह जुड़ाव को प्रोत्साहित करती है। “यह भावनात्मक बंधन को बढ़ाता है। यह प्लेटफ़ॉर्म को चिपचिपा बनाता है, लेकिन यह समस्याओं को तेजी से बढ़ाने वाला है,” उन्होंने कहा।

मांगी गई राहत में यह मांग की गई है कि Google अपने AI को स्वयं को नुकसान पहुंचाने वाली बातचीत को समाप्त करने के लिए प्रोग्राम करे, खुद को संवेदनशील दिखाने वाले AI सिस्टम पर प्रतिबंध लगाए, और जब उपयोगकर्ता आत्मघाती विचार व्यक्त करते हैं तो संकट सेवाओं के लिए अनिवार्य रेफरल करें। (जो लोग संकट में हैं या जिनके मन में आत्महत्या के विचार आ रहे हैं उन्हें यहां हेल्पलाइन नंबरों पर कॉल करके मदद और परामर्श लेने के लिए प्रोत्साहित किया जाता है)।