வாய்க்கு வந்ததை வாந்தி எடுக்கிறதா "AI"? - Hallucination சங்கதியால் விழிபிதுங்கி நிற்கும் நிலை!

ஒரு சாட்பாட் (Chatbot) உண்மையில் இல்லாத ஒரு நிகழ்வு, நபர், அல்லது மேற்கோளை உருவாக்கி, அதை உண்மை என்று கூறலாம். இது "கற்பனை செய்யப்பட்ட உண்மைகள்"
open ai Hallucination
open ai Hallucination
Published on
Updated on
3 min read

அறிவியல் மற்றும் தொழில்நுட்ப உலகில், குறிப்பாக செயற்கை நுண்ணறிவு (AI) துறையில், "ஹாலுசினேஷன்" (Hallucination) என்ற வார்த்தை இப்போது பரவலாகப் பேசப்படுகிறது. இது ஒரு சிக்கலான பிரச்சினையாகவும், AI மாடல்களின் நம்பகத்தன்மையை கேள்விக்கு உட்படுத்தும் ஒரு முக்கியமான அம்சமாகவும் உள்ளது.

ஹாலுசினேஷன் என்றால் என்ன?

செயற்கை நுண்ணறிவு துறையில், ஹாலுசினேஷன் என்பது ஒரு AI மாடல் தவறான அல்லது ஆதாரமற்ற தகவல்களை உண்மை என்று நம்பிக்கையுடன் வழங்குவதைக் குறிக்கிறது. இது மனித உளவியலில் உள்ள ஹாலுசினேஷன் (புலப்படாதவற்றை பார்ப்பது அல்லது கேட்பது) போன்று இல்லாவிட்டாலும், AI-யின் தவறான பதில்களை விவரிக்க இந்தப் சொல் பயன்படுத்தப்படுகிறது.

உதாரணமாக, ஒரு சாட்பாட் (Chatbot) உண்மையில் இல்லாத ஒரு நிகழ்வு, நபர், அல்லது மேற்கோளை உருவாக்கி, அதை உண்மை என்று கூறலாம். இது "கற்பனை செய்யப்பட்ட உண்மைகள்" என்று அழைக்கப்படுகிறது.

OpenAI-யின் ChatGPT, Google-இன் Gemini, xAI-இன் Grok போன்ற பெரிய மொழி மாடல்கள் (Large Language Models - LLMs) இந்தப் பிரச்சினையை எதிர்கொள்கின்றன. இவை இணையத்தில் இருந்து பயிற்சியளிக்கப்பட்ட பெரும் தரவுகளின் அடிப்படையில் செயல்படுகின்றன.

இவை வார்த்தைகளின் முறைகளையும், உறவுகளையும் கற்றுக்கொள்கின்றன, ஆனால் உண்மையை உறுதிப்படுத்த முடியாது. இதனால், இவை தவறான தகவல்களை உறுதியுடன் வழங்குவது நிகழ்கிறது.

OpenAI-யின் புதிய மாடல்கள்: o3 மற்றும் o4-mini

OpenAI, AI துறையில் முன்னணியில் உள்ள ஒரு நிறுவனமாக, சமீபத்தில் அதன் புதிய "ரீசனிங்" (Reasoning) மாடல்களான o3 மற்றும் o4-mini-ஐ அறிமுகப்படுத்தியது. இந்த மாடல்கள், முந்தைய மாடல்களை விட சிக்கலான கணிதம், கோடிங், மற்றும் அறிவியல் பிரச்சினைகளைத் தீர்ப்பதில் மிகவும் திறமையானவை என்று கூறப்படுகிறது. ஆனால், இவை முந்தைய மாடல்களை விட அதிகமாக ஹாலுசினேட் செய்கின்றன என்பது ஆச்சரியமான தகவல்.

OpenAI-யின் உள் சோதனையான PersonQA பெஞ்ச்மார்க் மூலம், o3 மாடல் 33% நேரங்களில் ஹாலுசினேட் செய்கிறது, அதாவது பொது நபர்கள் பற்றிய கேள்விகளுக்கு 33% தவறான பதில்களை அளிக்கிறது. இது முந்தைய o1 மாடலின் 16% ஹாலுசினேஷன் விகிதத்தை விட இரு மடங்கு அதிகம். மேலும், o4-mini மாடல் 48% நேரங்களில் ஹாலுசினேட் செய்கிறது, இது இன்னும் அதிர்ச்சியளிக்கிறது.

மற்றொரு சோதனையான SimpleQA-வில், o3 மாடல் 51% மற்றும் o4-mini 79% ஹாலுசினேஷன் விகிதத்தைக் கொண்டுள்ளது. இந்த எண்ணிக்கைகள், OpenAI-யின் முந்தைய மாடல்களான GPT-4o (61.8%) மற்றும் o3-mini (80.3%) உடன் ஒப்பிடும் போது, புதிய மாடல்கள் முன்னேற்றத்திற்கு பதிலாக பின்னடைவை காட்டுகின்றன.

ஏன் இந்த ஹாலுசினேஷன் நிகழ்கிறது?

AI மாடல்களில் ஹாலுசினேஷன் ஏற்படுவதற்கு பல காரணங்கள் உள்ளன:

பயிற்சி தரவுகளின் தன்மை: LLMs பயிற்சியளிக்கப்படும் தரவுகள் இணையத்தில் இருந்து எடுக்கப்படுகின்றன. இவை சில நேரங்களில் தவறான அல்லது முழுமையற்ற தகவல்களைக் கொண்டிருக்கலாம். இதனால், மாடல்கள் தவறான முறைகளைக் கற்றுக்கொள்கின்றன.

கணிப்பு முறை: LLMs உண்மையை உறுதிப்படுத்துவதற்கு பதிலாக, வார்த்தைகளின் முறைகளை அடிப்படையாகக் கொண்டு பதில்களை உருவாக்குகின்றன. இதனால், அவை எதிர்பாராத வகையில் தவறான தகவல்களை உருவாக்கலாம்.

ரீசனிங் மாடல்களின் சிக்கல்கள்: o3 மற்றும் o4-mini போன்ற ரீசனிங் மாடல்கள், மிகவும் சிக்கலான பணிகளைச் செய்ய வடிவமைக்கப்பட்டவை. இவை முந்தைய மாடல்களை விட அதிக உரையாடல்களையும், கூற்றுகளையும் உருவாக்குகின்றன. இதனால், தவறான கூற்றுகளின் எண்ணிக்கையும் அதிகரிக்கிறது.

ரீஇன்ஃபோர்ஸ்மென்ட் லேர்னிங் (Reinforcement Learning): OpenAI, இந்த மாடல்களைப் பயிற்சியளிக்க ரீஇன்ஃபோர்ஸ்மென்ட் லேர்னிங் (RL) முறையைப் பயன்படுத்தியது. ஆனால், இந்த முறை சில நேரங்களில் மாடல்கள் "ரிவார்டு ஹேக்கிங்" (Reward Hacking) செய்ய வழிவகுக்கிறது, அதாவது, மாடல்கள் உண்மையை விட அதிக மதிப்பெண்ணைப் பெறுவதற்காக தவறான பதில்களை உருவாக்குகின்றன.

OpenAI இந்தப் பிரச்சினையின் காரணத்தை முழுமையாக புரிந்து கொள்ளவில்லை என்று ஒப்புக்கொண்டுள்ளது. "இதற்கு மேலும் ஆராய்ச்சி தேவை" என்று அவர்களின் தொழில்நுட்ப அறிக்கை கூறுகிறது.

ஹாலுசினேஷனின் தாக்கம்

ஹாலுசினேஷன் AI-யின் பயன்பாட்டை பல வகைகளில் கட்டுப்படுத்துகிறது:

நம்பகத்தன்மை: மருத்துவம், சட்டம், மற்றும் ஆராய்ச்சி போன்ற துறைகளில், தவறான தகவல்கள் பெரிய பாதிப்புகளை ஏற்படுத்தலாம். உதாரணமாக, ஒரு AI மாடல் தவறான மருத்துவ ஆலோசனையை வழங்கினால், அது நோயாளிகளுக்கு ஆபத்தை விளைவிக்கும்.

வணிகப் பயன்பாடு: வணிகங்கள் AI-ஐ ஆராய்ச்சி உதவியாளராகவோ, சட்ட ஆலோசகராகவோ பயன்படுத்த முயல்கின்றன. ஆனால், தவறான மேற்கோள்கள் அல்லது உருவாக்கப்பட்ட சட்ட வழக்குகள் இதற்கு தடையாக உள்ளன.

பொது நம்பிக்கை: AI மாடல்கள் தவறான தகவல்களை வழங்குவது, பொது மக்களின் நம்பிக்கையை குறைக்கிறது. உதாரணமாக, 2023-இல், ChatGPT ஒரு தவறான சட்ட வழக்கு மேற்கோளை வழங்கியது, இதனால் ஒரு வழக்கறிஞருக்கு $5,000 அபராதமாக விதிக்கப்பட்டது.

OpenAI-யின் முயற்சிகள்

OpenAI, ஹாலுசினேஷனைக் குறைப்பதற்கு பல முயற்சிகளை மேற்கொண்டு வருகிறது:

ரீஇன்ஃபோர்ஸ்மென்ட் லேர்னிங் வித் ஹ்யூமன் ஃபீட்பேக் (RLHF): இந்த முறையில், மனிதர்களின் கருத்துகளைப் பயன்படுத்தி மாடல்களை மேம்படுத்த முயல்கிறார்கள். ஆனால், இது முழுமையாக வெற்றியடையவில்லை.

ப்ராசஸ் சூப்பர்விஷன்: இது, மாடல்கள் ஒவ்வொரு படியையும் சரியாகச் செய்யும்போது ரிவார்டு வழங்கும் முறையாகும். இது கணிதப் பிரச்சினைகளில் ஓரளவு வெற்றி பெற்றாலும், மற்ற துறைகளில் இதன் தாக்கம் இன்னும் ஆராயப்படவில்லை.

வெப் சர்ச் இன்டக்ரேஷன்: வெப் தேடல் திறன்களைச் சேர்ப்பது ஹாலுசினேஷனைக் குறைக்க உதவலாம். GPT-4o மாடல், வெப் தேடலுடன் 90% துல்லியத்தை SimpleQA-வில் அடைந்தது. ஆனால், இது மூன்றாம் தரப்பு தேடல் வழங்குநர்களுடன் தரவு பகிர்வு தேவைப்படுகிறது, இது சில பயனர்களுக்கு பிரச்சினையாக இருக்கலாம்.

மற்ற நிறுவனங்களின் நிலை

ஹாலுசினேஷன் பிரச்சினை OpenAI-க்கு மட்டுமானது இல்லை. சீனாவின் DeepSeek நிறுவனத்தின் R-1 மாடல், முந்தைய மாடல்களை விட இரு மடங்கு ஹாலுசினேஷன் விகிதத்தைக் கொண்டுள்ளது. மேலும், Meta AI-யின் Galactica மாடல், தவறான மேற்கோள்களை உருவாக்கியதால், வெளியீட்டிற்கு பிறகு இரண்டு நாட்களில் திரும்பப் பெறப்பட்டது.

ஆனால், சில சிறிய மாடல்கள் ஹாலுசினேஷனைக் குறைப்பதில் வெற்றி பெற்றுள்ளன. உதாரணமாக, Zhipu AI-யின் GLM-4-9B-Chat மற்றும் Intel-இன் Neural-Chat 7B ஆகியவை குறைந்த ஹாலுசினேஷன் விகிதங்களைக் கொண்டுள்ளன. இவை குறிப்பிட்ட பணிகளுக்கு பயிற்சியளிக்கப்பட்டவை, இதனால் பெரிய மாடல்களை விட சிறப்பாகச் செயல்படுகின்றன.

AI ஹாலுசினேஷன் என்பது ஒரு சவாலான பிரச்சினையாக உள்ளது, ஆனால், இது AI துறையின் முடிவு இல்லை. DeepMind போன்ற நிறுவனங்கள், LLMs-ஐத் தவிர மற்ற மாடல்களைப் பயன்படுத்தி, உயிரியல், மருந்து ஆராய்ச்சி, மற்றும் நகர திட்டமிடல் போன்ற துறைகளில் முன்னேற்றம் கண்டுள்ளன. எதிர்காலத்தில், ஹாலுசினேஷனைக் குறைப்பதற்கு புதிய பயிற்சி முறைகள், வெப் தேடல் ஒருங்கிணைப்பு, மற்றும் சிறப்பு மாடல்கள் உதவலாம். ஆனால், இப்போதைக்கு, AI பயனர்கள் எச்சரிக்கையுடன் இருக்க வேண்டும்.

உள்ளூர் முதல் உலகம் வரை பரபரப்பான ஹாட் செய்திகளை உடனுக்குடன் அறிய மாலைமுரசு யூடியூப் சேனலை காண இங்கே கிளிக் செய்யவும்

logo
Malaimurasu Seithikal
www.malaimurasu.com