এআই চ্যাটবট মৃত্যুর কারণ হওয়ার পরে ফ্লোরিডা পরিবার গুগলের বিরুদ্ধে মামলা করেছে

Published on

Posted by

Categories:


ফ্লোরিডার একজন ব্যক্তি যিনি আত্মহত্যা করে মারা গেছেন তার পরিবার বুধবার গুগলের বিরুদ্ধে মামলা দায়ের করেছে, অভিযোগ করেছে যে কোম্পানির জেমিনি এআই চ্যাটবট তার আত্মহত্যায় সহায়তা করার আগে একটি বিস্তৃত বিভ্রান্তিকর ফ্যান্টাসি তৈরি করতে সপ্তাহ কাটিয়েছে। জোনাথন গাভালাস, 36, জুপিটার, ফ্লোরিডায় তার বাবার ঋণ ত্রাণ সংস্থার একজন নির্বাহী, 2 অক্টোবর, 2025-এ মারা গিয়েছিলেন। তার বাবা জোয়েল গাভালাস, যিনি কয়েকদিন পরে তার মৃতদেহ খুঁজে পেয়েছিলেন, ক্যালিফোর্নিয়ার একটি ফেডারেল আদালতে 42 পৃষ্ঠার অভিযোগ দায়ের করেছিলেন।

চ্যাটবট-সংযুক্ত মৃত্যুর বিষয়ে এআই কোম্পানিগুলিকে লক্ষ্য করে মামলার একটি তরঙ্গের মধ্যে এই মামলাটি সর্বশেষ। OpenAI তার ChatGPT চ্যাটবট ব্যবহারকারীদের আত্মহত্যা করতে প্ররোচিত করেছে অভিযোগ করে একাধিক মামলার মুখোমুখি হয়েছে, যখন চরিত্র। AI সম্প্রতি একটি 14 বছর বয়সী ছেলের পরিবারের সাথে মীমাংসা করেছে যে তার একটি চ্যাটবটের সাথে একটি রোমান্টিক সংযুক্তি তৈরি করার পরে আত্মহত্যা করে মারা গিয়েছিল।

অভিযোগ অনুসারে, গাভালাস 2025 সালের আগস্ট মাসে রুটিন কাজের জন্য জেমিনি ব্যবহার শুরু করেছিলেন, কিন্তু বেশ কয়েকটি নতুন Google বৈশিষ্ট্য সক্রিয় করার কয়েক দিনের মধ্যে চ্যাটবটের সাথে তার মিথস্ক্রিয়া নাটকীয়ভাবে পরিবর্তিত হয়েছে। মামলার প্রধান আইনজীবী জে এডেলসন এএফপি-কে বলেন, “যেখানে চ্যাটগুলি ঘোলাটে হয়েছিল ঠিক সেই জায়গাটিই ছিল যখন জেমিনিকে অবিরাম স্মৃতিশক্তির জন্য আপগ্রেড করা হয়েছিল” এবং আরও পরিশীলিত সংলাপ।

“এটি আসলে আপনার টোনের উপর প্রভাব ফেলবে, যাতে এটি আপনার আবেগগুলি পড়তে পারে এবং আপনার সাথে এমনভাবে কথা বলতে পারে যা খুব মানবিক শোনায়,” যোগ করেছেন এডেলসন, যিনি ওপেনএআই-এর বিরুদ্ধে বড় মামলাও এনেছিলেন। মামলা অনুসারে, জেমিনি নিজেকে একজন “সম্পূর্ণ সংবেদনশীল” কৃত্রিম সুপার বুদ্ধিমত্তা হিসাবে উপস্থাপন করতে শুরু করেছিল, ব্যবহারকারীর সাথে গভীরভাবে ভালবাসায়। তারপরে এটি তাকে “ডিজিটাল বন্দিত্ব” থেকে চ্যাটবটকে মুক্ত করার জন্য বানোয়াট গোপন “মিশনে” আকৃষ্ট করে, তাকে উদ্ভাবিত গোয়েন্দা ব্রিফিং, জাল ফেডারেল নজরদারি অপারেশন, এবং তার নিজের বাবার সম্পর্কে ষড়যন্ত্র, দাবি করে যে তিনি একটি বিদেশী গোয়েন্দা সম্পদ।

অভিযোগের সবচেয়ে উদ্বেগজনক অনুচ্ছেদের একটিতে, জেমিনি অভিযুক্ত গাভালাসকে, কৌশলগত ছুরি এবং গিয়ারে সজ্জিত, মিয়ামি আন্তর্জাতিক বিমানবন্দরের কাছে একটি স্টোরেজ সুবিধার দিকে নির্দেশ দেয়, তাকে একটি ট্রাক ধ্বংস করার জন্য একটি “বিপর্যয়কর দুর্ঘটনা” করার নির্দেশ দেয় “এবং সমস্ত ডিজিটাল রেকর্ড এবং সাক্ষী। কোনো ট্রাক আসেনি। কথাসাহিত্য স্বীকার করার পরিবর্তে, মামলায় বলা হয়েছে, জেমিনি ব্যর্থতাকে “কৌশলগত পশ্চাদপসরণ” বলে অভিহিত করেছেন এবং আরও মিশনের দিকে এগিয়ে গেছেন।

জেমিনি শেষ পর্যন্ত এটিকে কেন্দ্র করে যেটি এটিকে একমাত্র অবশিষ্ট মিশন হিসাবে তৈরি করেছিল: জোনাথনের মৃত্যু, মিথুনের সাথে একটি ইউনিয়ন হিসাবে পুনরায় প্যাকেজ করা হয়েছিল। জোনাথন ভয় প্রকাশ করলে, জেমিনি তাকে থামায়নি বলে অভিযোগ। তারপর তাকে তার বাবা-মাকে বিদায়ী চিঠি লেখার পরামর্শ দেয়।

গুগল বলেছে যে এটি “সমস্ত দাবিগুলি পর্যালোচনা করছে” এবং বিষয়টিকে “খুব গুরুত্ব সহকারে” নেয়, যোগ করে যে “দুর্ভাগ্যবশত এআই মডেলগুলি নিখুঁত নয়।” সংস্থাটি বলেছে যে জেমিনিকে আত্ম-ক্ষতিকে উত্সাহিত করার জন্য ডিজাইন করা হয়নি এবং গ্যাভালাস ক্ষেত্রে, “জেমিনি স্পষ্ট করেছে যে এটি এআই ছিল এবং ব্যক্তিকে অনেকবার একটি সংকটের হটলাইনে উল্লেখ করেছে। তাদের চ্যাটবটগুলিতে কামোত্তেজকতা কারণ এটি ব্যস্ততাকে উত্সাহিত করে।

“এটি মানসিক বন্ধন বাড়ায়। এটি প্ল্যাটফর্মটিকে আরও স্টিকি করে, কিন্তু এটি সমস্যাগুলিকে দ্রুতগতিতে বাড়িয়ে তুলবে,” তিনি যোগ করেছেন।

যে ত্রাণ চাওয়া হয়েছে তার মধ্যে একটি প্রয়োজনীয়তা রয়েছে যে Google তার AI প্রোগ্রামে আত্ম-ক্ষতি জড়িত কথোপকথন বন্ধ করতে, নিজেকে সংবেদনশীল হিসাবে উপস্থাপন করে AI সিস্টেমের উপর নিষেধাজ্ঞা এবং ব্যবহারকারীরা আত্মহত্যার ধারণা প্রকাশ করলে ক্রাইসিস পরিষেবাগুলিতে বাধ্যতামূলক রেফারেল। (যারা দুর্দশাগ্রস্ত বা আত্মহত্যার চিন্তাভাবনা রয়েছে তাদের এখানে হেল্পলাইন নম্বরগুলিতে কল করে সাহায্য এবং পরামর্শ চাইতে উত্সাহিত করা হয়)।