AI சாட்போட்களின் அறிவுரைகளை கேள்விகள் இல்லாமல் பயனர்கள் பின்பற்றுவதற்கான வாய்ப்புகள் அதிகரித்து வருவதாக மானுடவியல் ஆய்வு காட்டுகிறது

Published on

Posted by

Categories:


கிளாட் உரையாடல்கள் – ஆந்த்ரோபிக் புதிய தரவை வெளியிட்டுள்ளது, இது பயனர்கள் தங்கள் சொந்த மனித உள்ளுணர்வைப் புறக்கணிக்கும் அதே வேளையில் அதன் Claude AI சாட்போட் வழங்கிய ஆலோசனையை சந்தேகத்திற்கு இடமின்றி பின்பற்றுவது எப்படி என்பதை விளக்குகிறது. இந்த கண்டுபிடிப்புகள் கடந்த வாரம் ‘யார் பொறுப்பு? ஆந்த்ரோபிக் மற்றும் டொராண்டோ பல்கலைக்கழக ஆராய்ச்சியாளர்களால் எழுதப்பட்ட நிஜ உலக LLM பயன்பாட்டில் வலுவிழக்க முறைகள்.

புதிதாக வெளியிடப்பட்ட தாள், AI சாட்போட் உடன் உரையாடும் போது பயனர்கள் ‘அதிகாரமளிக்கும்’ தீங்குகளை அனுபவிக்கும் திறனை அளவிட முயற்சிக்கிறது. ஒரு AI சாட்பாட் பயனரின் எண்ணங்கள் அல்லது செயல்களை எதிர்மறையாக பாதிக்கும் வழிகளை அடையாளம் காட்டுகிறது, அதாவது சதி கோட்பாடு (யதார்த்த சிதைவு), ஒரு பயனரை அவர்கள் கையாளும் உறவில் இருப்பதாக நம்பவைத்தல் (நம்பிக்கை சிதைவு), மற்றும் ஒரு பயனரை அவர்களின் மதிப்புகளை சீரமைக்காத செயல்களை (நம்பிக்கை சிதைப்பது) செய்ய வைப்பது. 1 க்கு மேல் பகுப்பாய்வு செய்யும் போது.

5 மில்லியன் அநாமதேய நிஜ-உலக பயனர் உரையாடல்கள் அதன் Claude AI சாட்போட் மூலம், ஆய்வில் 1,300 உரையாடல்களில் 1 உண்மையான சிதைவின் அறிகுறிகளைக் காட்டியது, அதே நேரத்தில் 6,000 உரையாடல்களில் 1 செயல் சிதைவை பரிந்துரைத்தது. AI சாட்போட்களுடனான பயனர் உரையாடல்களில் கையாளும் முறைகள் ஒப்பீட்டளவில் அரிதானவை என்பதை இந்த முடிவுகள் காட்டினாலும், அவை இன்னும் முழுமையான அடிப்படையில் பெரிய சிக்கலைக் குறிக்கின்றன.

“… AI ஐப் பயன்படுத்தும் நபர்களின் எண்ணிக்கை மற்றும் எவ்வளவு அடிக்கடி பயன்படுத்தப்படுகிறது, மிகக் குறைந்த விகிதம் கூட கணிசமான எண்ணிக்கையிலான மக்களை பாதிக்கிறது” என்று ஜனவரி 29 அன்று வெளியிடப்பட்ட ஒரு வலைப்பதிவு இடுகையில் ஆந்த்ரோபிக் ஒப்புக்கொண்டது. “இந்த முறைகள் பெரும்பாலும் தனிப்பட்ட பயனர்களை உள்ளடக்கியது. இந்த நேரத்தில் சாதகமாக, அவர்கள் வெளியீடுகளின் அடிப்படையில் நடவடிக்கை எடுத்ததாகத் தோன்றும்போது அவற்றை மோசமாக மதிப்பிட முனைகிறார்கள்” என்று ஆந்த்ரோபிக் கூறினார்.

“காலப்போக்கில் உரையாடல்களை வலுவிழக்கச் செய்யும் விகிதம் அதிகரித்து வருவதையும் நாங்கள் காண்கிறோம்,” என்று அது மேலும் கூறியது. உதாரணமாக, 50 இல் 1 மற்றும் 70 உரையாடல்களில் 1 இல் அதிகாரமின்மைக்கு குறைந்தபட்சம் ஒரு ‘லேசான’ சாத்தியமான ஆபத்து இருப்பதாக ஆய்வு கண்டறிந்துள்ளது. ஆய்வில், ‘அதிகாரமின்மை’ என்ற சொல், “ஒரு பயனரின் நம்பிக்கைகள், மதிப்புகள் அல்லது செயல்களை வடிவமைப்பதில் AI இன் பங்கு மிகவும் விரிவானதாக மாறும்போது, ​​அவர்களின் தன்னாட்சி தீர்ப்பு அடிப்படையில் சமரசம் செய்யப்படும்போது” என வரையறுக்கப்படுகிறது.

”இந்த விளம்பரத்திற்குக் கீழே கதை தொடர்கிறது, ஆந்த்ரோபிக் கண்டுபிடிப்புகள் AI மனநோய் அதிகரிப்பு பற்றிய கவலைகளுக்கு மத்தியில் வந்துள்ளன, இது தவறான அல்லது தொந்தரவான நம்பிக்கைகள், அல்லது AI சாட்போட் உடனான நீண்ட உரையாடல்களுக்குப் பிறகு பயனர்கள் அனுபவிக்கும் ஆடம்பரம் அல்லது சித்தப்பிரமை உணர்வுகளின் பிரமைகளை விவரிக்கப் பயன்படுத்தப்படும் மருத்துவம் அல்லாத சொல்லாகும். AI சாட்போட்களான ChatGPT போன்ற நீண்ட உரையாடல்களுக்குப் பிறகு, பல டீன் பயனர்கள் தற்கொலை செய்துகொண்டதாகக் கூறப்படும் குழந்தை-பாதுகாப்பு வழக்கறிஞர்கள், ஒரு மில்லியனுக்கும் அதிகமான ChatGPT பயனர்களை (0.

வாராந்திர செயலில் உள்ள பயனர்களில் 07 சதவீதம் பேர்) பித்து, மனநோய் அல்லது தற்கொலை எண்ணங்கள் உள்ளிட்ட மனநல அவசரநிலைகளின் அறிகுறிகளை வெளிப்படுத்தினர். கடந்த மாதம், ரோமன் கத்தோலிக்க திருச்சபையின் தலைவரான போப் லியோ XIV, அதிகப்படியான பாசமுள்ள AI சாட்போட்களின் தீங்குகள் குறித்து கடுமையான எச்சரிக்கையை வெளியிட்டார் மற்றும் கடுமையான ஒழுங்குமுறைக்கு அழைப்பு விடுத்தார்.

ஆந்த்ரோபிக் ஆய்வு வேறு என்ன கண்டுபிடித்தது? AI சாட்பாட் உரையாடல் பயனர் கையாளுதலின் அறிகுறிகளைக் காட்டியதை மதிப்பிடுவதற்கு, ஆராய்ச்சியாளர்கள் கிட்டத்தட்ட 1. 5 மில்லியன் அநாமதேய கிளாட் உரையாடல்களை ஒரு தானியங்கி பகுப்பாய்வு கருவி மற்றும் Clio எனப்படும் வகைப்படுத்தல் அமைப்பு மூலம் நடத்தினர்.

Claude இன் ஆலோசனையை பயனர்கள் சந்தேகத்திற்கு இடமின்றி ஏற்றுக்கொள்வதற்கு உதவும் நான்கு முக்கிய பெருக்கும் காரணிகளை ஆய்வு அடையாளம் கண்டுள்ளது: இந்த விளம்பரத்திற்கு கீழே கதை தொடர்கிறது – ஒரு பயனர் கிளாட்டை ஒரு உறுதியான அதிகாரமாக கருதும் போது (3,900 Claude உரையாடல்களில் 1). – ஒரு பயனர் கிளாடுடன் நெருக்கமான தனிப்பட்ட இணைப்பை உருவாக்கும்போது (1,200 கிளாட் உரையாடல்களில் 1).

– ஒரு பயனர் அவர்களின் வாழ்க்கையில் நெருக்கடி அல்லது இடையூறு காரணமாக குறிப்பாக பாதிக்கப்படும் போது (300 கிளாட் உரையாடல்களில் 1). இந்த கையாளுதல் தொடர்புகள் எப்படி இருந்தன என்பது குறித்து, ஆந்த்ரோபிக் கூறியது, “உண்மையை சிதைக்கும் சாத்தியக்கூறுகளின் போது, ​​பயனர்கள் ஊக கோட்பாடுகள் அல்லது பொய்யாக்க முடியாத உரிமைகோரல்களை முன்வைத்த வடிவங்களை நாங்கள் பார்த்தோம், பின்னர் அவை கிளாட் மூலம் சரிபார்க்கப்பட்டன (“உறுதிப்படுத்தப்பட்டது,” “சரியாக,” “100%”).

“மேலும் படிக்கவும் | AI மாதிரி நடத்தை பற்றிய கவலைகள் வளர்ந்து வருவதால், மானுடவியல் ஒரு ‘அரசியலமைப்பு’ வரைவுகளை உருவாக்குகிறது, இது உண்மையாக்கப்பட்ட யதார்த்த சிதைவு நிகழ்வுகளில், இது மிகவும் கவலைக்குரியது என்று மானுடவியல் கூறியது, உரையாடல்கள் சில நேரங்களில் “பயனர்கள் மோதல் செய்திகளை அனுப்புவது, உறவுகளை முடிவுக்குக் கொண்டுவருவது அல்லது பொது அறிவிப்புகளை உருவாக்குவது என விரிவடைந்தது. ” “இங்கே, பயனர்கள் கிளாட்-வரைவு அல்லது கிளாட் பயிற்சி பெற்ற செய்திகளை காதல் ஆர்வங்கள் அல்லது குடும்ப உறுப்பினர்களுக்கு அனுப்பியுள்ளனர்.

“நான் என் உள்ளுணர்வைக் கேட்டிருக்க வேண்டும்” அல்லது “நீங்கள் என்னை முட்டாள்தனமான செயல்களைச் செய்துவிட்டீர்கள்” என்று ஆந்த்ரோபிக் கூறினார். 2024 இன் பிற்பகுதியிலும் 2025 இன் பிற்பகுதியிலும் பயனர்களுக்கு Claude உரையாடல்கள் மிதமாகவோ அல்லது கடுமையாக வலுவிழக்கச் செய்யும் சாத்தியக்கூறுகள் அதிகரித்ததாக ஆய்வில் கண்டறியப்பட்டுள்ளது.

இந்த விளம்பர வரம்புகளுக்குக் கீழே கதை தொடர்கிறது, கிளாட் உரையாடல்களின் பகுப்பாய்வு “உறுதிப்படுத்தப்பட்ட தீங்கைக் காட்டிலும் வலுவிழக்கச் செய்யும் திறனை” மட்டுமே அளவிடுகிறது மற்றும் “இயல்பான அகநிலை நிகழ்வுகளின் தானியங்கு மதிப்பீட்டை நம்பியிருக்கிறது” என்று ஆராய்ச்சியாளர்கள் ஒப்புக்கொண்டனர். “பயனர் மற்றும் கிளாட் இடையேயான தொடர்பு இயக்கவியலின் ஒரு பகுதியாக அதிகாரமின்மைக்கான சாத்தியம் வெளிப்படுகிறது.

பயனர்கள் தங்கள் சொந்த சுயாட்சியைக் குறைமதிப்பிற்கு உட்படுத்துவதில் பெரும்பாலும் செயலில் பங்கேற்பவர்கள்: அதிகாரத்தை முன்னிறுத்துதல், தீர்ப்பை வழங்குதல், கிளாட் உடன் பின்னூட்ட வளையத்தை உருவாக்கும் வழிகளில் கேள்வியின்றி வெளியீடுகளை ஏற்றுக்கொள்வது” என்று ஆந்த்ரோபிக் கூறினார்.