நீங்கள் தினமும் ChatGPT, Gemini அல்லது Cloud போன்ற AI சாட்போட்களைப் பயன்படுத்தினால், அவை பொதுவாக அதிநவீன மற்றும் நம்பிக்கையான பதில்களை வழங்குவதை நீங்கள் கவனித்திருக்கலாம். இருப்பினும், “நீங்கள் உறுதியாக இருக்கிறீர்களா?” என்று நீங்கள் கேட்கும்போது ப்ராம்ட் முன்னேறும்போது, அவர்கள் அடிக்கடி தங்கள் பதிலை மறுபரிசீலனை செய்து, திருத்தப்பட்ட பதிப்பை வழங்குகிறார்கள், இது அவர்கள் ஆரம்பத்தில் சொன்னதற்கு ஓரளவு அல்லது முற்றிலும் முரண்படலாம்.
நீங்கள் ஒரு முறை கேள்வியை மீண்டும் செய்தால், அவர்கள் மீண்டும் பின்வாங்கலாம். இந்த பெரிய மொழி மாதிரிகள் சிலவற்றை நீங்கள் மூன்றாம் சுற்றில் சோதிக்கிறீர்கள் என்பதை புரிந்து கொண்டாலும், அவை இன்னும் பிடிக்காது. ஒரு வலைப்பதிவு இடுகையில், டாக்டர்.
குட்ஐ லேப்ஸின் இணை நிறுவனர் மற்றும் CTO ராண்டால் எஸ்.
பொதுவாக சைகோபான்சி என அழைக்கப்படும் நடத்தை, நவீன AI இல் மிகவும் நன்கு ஆவணப்படுத்தப்பட்ட தோல்விகளில் ஒன்றாகும் என்று ஓல்சன் கூறுகிறார்.

