அறிவியல் மற்றும் தொழில்நுட்ப உலகில், குறிப்பாக செயற்கை நுண்ணறிவு (AI) துறையில், "ஹாலுசினேஷன்" (Hallucination) என்ற வார்த்தை இப்போது பரவலாகப் பேசப்படுகிறது. இது ஒரு சிக்கலான பிரச்சினையாகவும், AI மாடல்களின் நம்பகத்தன்மையை கேள்விக்கு உட்படுத்தும் ஒரு முக்கியமான அம்சமாகவும் உள்ளது.
செயற்கை நுண்ணறிவு துறையில், ஹாலுசினேஷன் என்பது ஒரு AI மாடல் தவறான அல்லது ஆதாரமற்ற தகவல்களை உண்மை என்று நம்பிக்கையுடன் வழங்குவதைக் குறிக்கிறது. இது மனித உளவியலில் உள்ள ஹாலுசினேஷன் (புலப்படாதவற்றை பார்ப்பது அல்லது கேட்பது) போன்று இல்லாவிட்டாலும், AI-யின் தவறான பதில்களை விவரிக்க இந்தப் சொல் பயன்படுத்தப்படுகிறது.
உதாரணமாக, ஒரு சாட்பாட் (Chatbot) உண்மையில் இல்லாத ஒரு நிகழ்வு, நபர், அல்லது மேற்கோளை உருவாக்கி, அதை உண்மை என்று கூறலாம். இது "கற்பனை செய்யப்பட்ட உண்மைகள்" என்று அழைக்கப்படுகிறது.
OpenAI-யின் ChatGPT, Google-இன் Gemini, xAI-இன் Grok போன்ற பெரிய மொழி மாடல்கள் (Large Language Models - LLMs) இந்தப் பிரச்சினையை எதிர்கொள்கின்றன. இவை இணையத்தில் இருந்து பயிற்சியளிக்கப்பட்ட பெரும் தரவுகளின் அடிப்படையில் செயல்படுகின்றன.
இவை வார்த்தைகளின் முறைகளையும், உறவுகளையும் கற்றுக்கொள்கின்றன, ஆனால் உண்மையை உறுதிப்படுத்த முடியாது. இதனால், இவை தவறான தகவல்களை உறுதியுடன் வழங்குவது நிகழ்கிறது.
OpenAI, AI துறையில் முன்னணியில் உள்ள ஒரு நிறுவனமாக, சமீபத்தில் அதன் புதிய "ரீசனிங்" (Reasoning) மாடல்களான o3 மற்றும் o4-mini-ஐ அறிமுகப்படுத்தியது. இந்த மாடல்கள், முந்தைய மாடல்களை விட சிக்கலான கணிதம், கோடிங், மற்றும் அறிவியல் பிரச்சினைகளைத் தீர்ப்பதில் மிகவும் திறமையானவை என்று கூறப்படுகிறது. ஆனால், இவை முந்தைய மாடல்களை விட அதிகமாக ஹாலுசினேட் செய்கின்றன என்பது ஆச்சரியமான தகவல்.
OpenAI-யின் உள் சோதனையான PersonQA பெஞ்ச்மார்க் மூலம், o3 மாடல் 33% நேரங்களில் ஹாலுசினேட் செய்கிறது, அதாவது பொது நபர்கள் பற்றிய கேள்விகளுக்கு 33% தவறான பதில்களை அளிக்கிறது. இது முந்தைய o1 மாடலின் 16% ஹாலுசினேஷன் விகிதத்தை விட இரு மடங்கு அதிகம். மேலும், o4-mini மாடல் 48% நேரங்களில் ஹாலுசினேட் செய்கிறது, இது இன்னும் அதிர்ச்சியளிக்கிறது.
மற்றொரு சோதனையான SimpleQA-வில், o3 மாடல் 51% மற்றும் o4-mini 79% ஹாலுசினேஷன் விகிதத்தைக் கொண்டுள்ளது. இந்த எண்ணிக்கைகள், OpenAI-யின் முந்தைய மாடல்களான GPT-4o (61.8%) மற்றும் o3-mini (80.3%) உடன் ஒப்பிடும் போது, புதிய மாடல்கள் முன்னேற்றத்திற்கு பதிலாக பின்னடைவை காட்டுகின்றன.
AI மாடல்களில் ஹாலுசினேஷன் ஏற்படுவதற்கு பல காரணங்கள் உள்ளன:
பயிற்சி தரவுகளின் தன்மை: LLMs பயிற்சியளிக்கப்படும் தரவுகள் இணையத்தில் இருந்து எடுக்கப்படுகின்றன. இவை சில நேரங்களில் தவறான அல்லது முழுமையற்ற தகவல்களைக் கொண்டிருக்கலாம். இதனால், மாடல்கள் தவறான முறைகளைக் கற்றுக்கொள்கின்றன.
கணிப்பு முறை: LLMs உண்மையை உறுதிப்படுத்துவதற்கு பதிலாக, வார்த்தைகளின் முறைகளை அடிப்படையாகக் கொண்டு பதில்களை உருவாக்குகின்றன. இதனால், அவை எதிர்பாராத வகையில் தவறான தகவல்களை உருவாக்கலாம்.
ரீசனிங் மாடல்களின் சிக்கல்கள்: o3 மற்றும் o4-mini போன்ற ரீசனிங் மாடல்கள், மிகவும் சிக்கலான பணிகளைச் செய்ய வடிவமைக்கப்பட்டவை. இவை முந்தைய மாடல்களை விட அதிக உரையாடல்களையும், கூற்றுகளையும் உருவாக்குகின்றன. இதனால், தவறான கூற்றுகளின் எண்ணிக்கையும் அதிகரிக்கிறது.
ரீஇன்ஃபோர்ஸ்மென்ட் லேர்னிங் (Reinforcement Learning): OpenAI, இந்த மாடல்களைப் பயிற்சியளிக்க ரீஇன்ஃபோர்ஸ்மென்ட் லேர்னிங் (RL) முறையைப் பயன்படுத்தியது. ஆனால், இந்த முறை சில நேரங்களில் மாடல்கள் "ரிவார்டு ஹேக்கிங்" (Reward Hacking) செய்ய வழிவகுக்கிறது, அதாவது, மாடல்கள் உண்மையை விட அதிக மதிப்பெண்ணைப் பெறுவதற்காக தவறான பதில்களை உருவாக்குகின்றன.
OpenAI இந்தப் பிரச்சினையின் காரணத்தை முழுமையாக புரிந்து கொள்ளவில்லை என்று ஒப்புக்கொண்டுள்ளது. "இதற்கு மேலும் ஆராய்ச்சி தேவை" என்று அவர்களின் தொழில்நுட்ப அறிக்கை கூறுகிறது.
ஹாலுசினேஷன் AI-யின் பயன்பாட்டை பல வகைகளில் கட்டுப்படுத்துகிறது:
நம்பகத்தன்மை: மருத்துவம், சட்டம், மற்றும் ஆராய்ச்சி போன்ற துறைகளில், தவறான தகவல்கள் பெரிய பாதிப்புகளை ஏற்படுத்தலாம். உதாரணமாக, ஒரு AI மாடல் தவறான மருத்துவ ஆலோசனையை வழங்கினால், அது நோயாளிகளுக்கு ஆபத்தை விளைவிக்கும்.
வணிகப் பயன்பாடு: வணிகங்கள் AI-ஐ ஆராய்ச்சி உதவியாளராகவோ, சட்ட ஆலோசகராகவோ பயன்படுத்த முயல்கின்றன. ஆனால், தவறான மேற்கோள்கள் அல்லது உருவாக்கப்பட்ட சட்ட வழக்குகள் இதற்கு தடையாக உள்ளன.
பொது நம்பிக்கை: AI மாடல்கள் தவறான தகவல்களை வழங்குவது, பொது மக்களின் நம்பிக்கையை குறைக்கிறது. உதாரணமாக, 2023-இல், ChatGPT ஒரு தவறான சட்ட வழக்கு மேற்கோளை வழங்கியது, இதனால் ஒரு வழக்கறிஞருக்கு $5,000 அபராதமாக விதிக்கப்பட்டது.
OpenAI, ஹாலுசினேஷனைக் குறைப்பதற்கு பல முயற்சிகளை மேற்கொண்டு வருகிறது:
ரீஇன்ஃபோர்ஸ்மென்ட் லேர்னிங் வித் ஹ்யூமன் ஃபீட்பேக் (RLHF): இந்த முறையில், மனிதர்களின் கருத்துகளைப் பயன்படுத்தி மாடல்களை மேம்படுத்த முயல்கிறார்கள். ஆனால், இது முழுமையாக வெற்றியடையவில்லை.
ப்ராசஸ் சூப்பர்விஷன்: இது, மாடல்கள் ஒவ்வொரு படியையும் சரியாகச் செய்யும்போது ரிவார்டு வழங்கும் முறையாகும். இது கணிதப் பிரச்சினைகளில் ஓரளவு வெற்றி பெற்றாலும், மற்ற துறைகளில் இதன் தாக்கம் இன்னும் ஆராயப்படவில்லை.
வெப் சர்ச் இன்டக்ரேஷன்: வெப் தேடல் திறன்களைச் சேர்ப்பது ஹாலுசினேஷனைக் குறைக்க உதவலாம். GPT-4o மாடல், வெப் தேடலுடன் 90% துல்லியத்தை SimpleQA-வில் அடைந்தது. ஆனால், இது மூன்றாம் தரப்பு தேடல் வழங்குநர்களுடன் தரவு பகிர்வு தேவைப்படுகிறது, இது சில பயனர்களுக்கு பிரச்சினையாக இருக்கலாம்.
ஹாலுசினேஷன் பிரச்சினை OpenAI-க்கு மட்டுமானது இல்லை. சீனாவின் DeepSeek நிறுவனத்தின் R-1 மாடல், முந்தைய மாடல்களை விட இரு மடங்கு ஹாலுசினேஷன் விகிதத்தைக் கொண்டுள்ளது. மேலும், Meta AI-யின் Galactica மாடல், தவறான மேற்கோள்களை உருவாக்கியதால், வெளியீட்டிற்கு பிறகு இரண்டு நாட்களில் திரும்பப் பெறப்பட்டது.
ஆனால், சில சிறிய மாடல்கள் ஹாலுசினேஷனைக் குறைப்பதில் வெற்றி பெற்றுள்ளன. உதாரணமாக, Zhipu AI-யின் GLM-4-9B-Chat மற்றும் Intel-இன் Neural-Chat 7B ஆகியவை குறைந்த ஹாலுசினேஷன் விகிதங்களைக் கொண்டுள்ளன. இவை குறிப்பிட்ட பணிகளுக்கு பயிற்சியளிக்கப்பட்டவை, இதனால் பெரிய மாடல்களை விட சிறப்பாகச் செயல்படுகின்றன.
AI ஹாலுசினேஷன் என்பது ஒரு சவாலான பிரச்சினையாக உள்ளது, ஆனால், இது AI துறையின் முடிவு இல்லை. DeepMind போன்ற நிறுவனங்கள், LLMs-ஐத் தவிர மற்ற மாடல்களைப் பயன்படுத்தி, உயிரியல், மருந்து ஆராய்ச்சி, மற்றும் நகர திட்டமிடல் போன்ற துறைகளில் முன்னேற்றம் கண்டுள்ளன. எதிர்காலத்தில், ஹாலுசினேஷனைக் குறைப்பதற்கு புதிய பயிற்சி முறைகள், வெப் தேடல் ஒருங்கிணைப்பு, மற்றும் சிறப்பு மாடல்கள் உதவலாம். ஆனால், இப்போதைக்கு, AI பயனர்கள் எச்சரிக்கையுடன் இருக்க வேண்டும்.
உள்ளூர் முதல் உலகம் வரை பரபரப்பான ஹாட் செய்திகளை உடனுக்குடன் அறிய மாலைமுரசு யூடியூப் சேனலை காண இங்கே கிளிக் செய்யவும்