
நம்முடைய அன்றாட வாழ்க்கையில் செயற்கை நுண்ணறிவு (Artificial Intelligence - AI) ஒரு புரட்சியை ஏற்படுத்தி வருகிறது. சாட்ஜிபிடி (ChatGPT) போன்ற மொழி மாதிரிகள் முதல் டீப்ஃபேக் வீடியோக்கள் வரை, AI தொழில்நுட்பம் நம்மை ஆச்சரியப்படுத்தி, அதே சமயம் சவால்களையும் எழுப்புகிறது. இந்தத் தொழில்நுட்பம் மருத்துவம், கல்வி, வணிகம் என பல துறைகளில் பயன்பாடுகளைக் கொண்டிருந்தாலும், அதன் தவறான பயன்பாடு சமூகத்துக்கு பெரும் ஆபத்தை விளைவிக்கலாம். இதனால், AI-க்கு "பாதுகாப்பு வேலிகள்" (Guardrails) அவசியம் என்று உலகம் முழுவதும் பேசப்படுகிறது.
பாதுகாப்பு வேலிகள்: ஒரு எளிய விளக்கம்
AI-க்கு பாதுகாப்பு வேலிகள் என்பது, இந்தத் தொழில்நுட்பத்தை தவறாகப் பயன்படுத்துவதைத் தடுக்கவும், அதன் பயன்பாடு நெறிமுறைகளுக்கு உட்பட்டு இருக்கவும் உருவாக்கப்படும் விதிகள், கொள்கைகள், மற்றும் கட்டுப்பாடுகள் ஆகும். இது வெறும் கண்ணுக்கு தெரியும் பாதுகாப்பு நாடகம் (Safety Theatre) இல்லை; மாறாக, உண்மையான, பயனுள்ள கட்டுப்பாடுகளை உருவாக்குவது பற்றியது.
எடுத்துக்காட்டாக, AI-ஆல் உருவாக்கப்பட்ட டீப்ஃபேக் வீடியோக்கள் மூலம் தவறான தகவல்கள் பரவுவது, தனிநபர்களின் புகழுக்கு களங்கம் விளைவிப்பது, அல்லது தேர்தல் முடிவுகளைப் பாதிக்க முயற்சிப்பது போன்றவை நடக்கலாம். இதைத் தடுக்க, AI அமைப்புகள் எப்படி தகவல்களை உருவாக்குகின்றன, பகிர்கின்றன என்பதற்கு தெளிவான விதிகள் தேவை. இந்த விதிகள் AI-ஐ உருவாக்கும் நிறுவனங்கள், அதைப் பயன்படுத்தும் தனிநபர்கள், மற்றும் அரசாங்கங்களுக்கு பொறுப்புகளை விதிக்கின்றன.
உலகளாவிய பார்வை: AI-க்கு விதிகள் தேவை
உலக அளவில், AI-ஐ ஒழுங்குபடுத்துவதற்கு பல முயற்சிகள் நடந்து வருகின்றன. எடுத்துக்காட்டாக, ஐரோப்பிய ஒன்றியம் (EU) தனது AI ஆக்ட் மூலம், AI-ஐ உயர்-ஆபத்து, குறைந்த-ஆபத்து என வகைப்படுத்தி, அதற்கேற்ப கடுமையான விதிகளை வகுத்து வருகிறது. இந்தச் சட்டம் AI-ஐ தவறாகப் பயன்படுத்துவதைத் தடுப்பதோடு, புதுமைகளை ஊக்குவிக்கவும் முயல்கிறது. இதேபோல், அமெரிக்காவில் 2023 அக்டோபரில் ஜோ பைடன் அரசு வெளியிட்ட ஒரு நிர்வாக உத்தரவு, AI-இன் பாதுகாப்பான மற்றும் நம்பகமான பயன்பாட்டை உறுதி செய்ய முயல்கிறது.
ஆனால், இந்த முயற்சிகளுக்கு சவால்கள் இல்லாமல் இல்லை. AI தொழில்நுட்பம் மிக வேகமாக வளர்ந்து வருவதால், இன்று வகுக்கப்படும் விதிகள் நாளை பொருத்தமற்றதாக மாறிவிடலாம். மேலும், AI-ஐ உருவாக்கும் நிறுவனங்கள் (எ.கா., OpenAI, Google) மற்றும் அதைப் பயன்படுத்தும் நாடுகளுக்கு இடையே ஒரு ஒருங்கிணைந்த அணுகுமுறை இல்லை. இதனால், உலகளாவிய ஒத்துழைப்பு மற்றும் தரநிலைகள் உருவாக்குவது அவசியமாகிறது.
இந்தியாவில் AI: வாய்ப்புகளும் சவால்களும்
இந்தியா, உலகின் மிகப்பெரிய மக்கள் தொகை கொண்ட நாடாக, AI-ஐப் பயன்படுத்துவதற்கு மிகப்பெரிய வாய்ப்புகளைக் கொண்டிருக்கிறது. கல்வி, விவசாயம், மருத்துவம், மற்றும் டிஜிட்டல் பொருளாதாரத்தில் AI புரட்சி செய்ய முடியும். ஆனால், இந்தியாவின் தனித்தன்மையான சமூக-பொருளாதார சூழல், AI-க்கு உள்ளூர் சூழலுக்கு ஏற்ப பாதுகாப்பு வேலிகளை உருவாக்க வேண்டிய அவசியத்தை வலியுறுத்துகிறது.
எடுத்துக்காட்டாக, இந்தியாவில் மொழி மற்றும் கலாசார பன்முகத்தன்மை மிக அதிகம். AI மாதிரிகள் ஆங்கிலத்தில் பயிற்சியளிக்கப்பட்டால், அவை தமிழ், இந்தி, அல்லது பிற உள்ளூர் மொழிகளில் உள்ள நுணுக்கங்களைப் புரிந்து கொள்ளாமல் போகலாம். இதனால், தவறான தகவல்கள் அல்லது புரிதல் பிழைகள் ஏற்படலாம். மேலும், இந்தியாவில் இணைய பயன்பாடு அதிகரித்து வருவதால், டீப்ஃபேக் மற்றும் ஆன்லைன் மோசடிகள் போன்றவை பெரும் அச்சுறுத்தலாக உருவாகலாம். இதைத் தடுக்க, இந்தியாவுக்கு தனித்துவமான AI விதிகள் தேவை.
இந்தியாவில் AI விதிகளுக்கான பரிந்துரைகள்
உள்ளூர் சூழலுக்கு ஏற்ப விதிகள்: இந்தியாவின் மொழி, கலாசார, மற்றும் பொருளாதார பன்முகத்தன்மையை கருத்தில் கொண்டு, AI விதிகள் உருவாக்கப்பட வேண்டும். எடுத்துக்காட்டாக, தமிழ், தெலுங்கு, மலையாளம் போன்ற மொழிகளில் AI மாதிரிகளை பயிற்சியளிக்கவும், அவற்றின் துல்லியத்தை உறுதி செய்யவும் முயற்சிகள் மேற்கொள்ளப்பட வேண்டும்.
தேசிய AI பாதுகாப்பு குழு: இந்தியாவில் AI-இன் பாதுகாப்பு மற்றும் நெறிமுறைகளை கண்காணிக்க ஒரு நிரந்தர உயர்மட்டக் குழு அமைக்கப்பட வேண்டும். இதில் அரசு, தொழில்நுட்ப நிறுவனங்கள், கல்வியாளர்கள், மற்றும் சமூக ஆர்வலர்கள் இடம்பெற வேண்டும்.
தனியுரிமை மற்றும் பாதுகாப்பு: AI அமைப்புகள் தனிநபர்களின் தரவுகளை தவறாகப் பயன்படுத்துவதைத் தடுக்க, கடுமையான தனியுரிமைச் சட்டங்கள் தேவை. இந்தியாவின் Personal Data Protection Bill இதற்கு ஒரு அடித்தளமாக அமையலாம்.
வேலைவாய்ப்பு பாதுகாப்பு: AI-ஆல் வேலை இழப்பு ஏற்படலாம் என்பதால், தொழிலாளர்களுக்கு மறு-பயிற்சி மற்றும் புதிய திறன் வளர்ப்பு திட்டங்கள் அறிமுகப்படுத்தப்பட வேண்டும். இது AI-இன் பயன்களை அனைவருக்கும் பகிர்ந்தளிக்க உதவும்.
வெளிப்படைத்தன்மை: AI மாதிரிகள் எப்படி முடிவுகளை எடுக்கின்றன என்பதை பயனர்கள் புரிந்து கொள்ளும் வகையில், அவற்றின் செயல்பாடு வெளிப்படையாக இருக்க வேண்டும். இதற்கு, AI நிறுவனங்கள் தங்கள் மாதிரிகளின் விவரங்களை பகிர்ந்து கொள்ள வேண்டும்.
சவால்கள்: AI விதிகளை அமல்படுத்துவது எப்படி?
AI-ஐ ஒழுங்குபடுத்துவது எளிதான காரியம் இல்லை. முதலாவதாக, இந்தத் தொழில்நுட்பம் மிக வேகமாக மாறி வருகிறது. இன்று உருவாக்கப்படும் விதிகள் நாளை பொருத்தமற்றதாக மாறிவிடலாம். இரண்டாவதாக, AI-ஐ உருவாக்கும் நிறுவனங்கள் பெரும்பாலும் உலகளாவியவை. இவை இந்தியாவின் சட்டங்களுக்கு முழுமையாக உட்படாமல் இருக்கலாம். மூன்றாவதாக, AI-இன் பயன்பாடு பல துறைகளை உள்ளடக்கியது. ஒவ்வொரு துறைக்கும் தனித்தனியாக விதிகள் உருவாக்குவது சிக்கலானது.
மேலும், AI-இன் தவறான பயன்பாட்டை கண்காணிக்க மனிதர்களுக்கு மட்டும் திறன் போதாது. முன்னாள் கூகுள் தலைமை நிர்வாகி எரிக் ஷ்மிட் கூறியது போல், "AI-ஐ கண்காணிக்க AI-ஐ பயன்படுத்த வேண்டும்." இதற்கு, AI அமைப்புகளுக்கு உள்ளேயே பாதுகாப்பு அம்சங்களை உட்பொதிக்க வேண்டும்.
முடிவு: இந்தியாவுக்கு ஒரு புதிய பயணம்
செயற்கை நுண்ணறிவு இந்தியாவுக்கு ஒரு பொன்னான வாய்ப்பு. ஆனால், இந்த வாய்ப்பை பயனுள்ளதாகவும், பாதுகாப்பானதாகவும் மாற்ற, உறுதியான பாதுகாப்பு வேலிகள் தேவை. இந்த வேலிகள் வெறும் காட்சிப்பொருளாக இருக்கக் கூடாது; அவை நடைமுறையில் செயல்படுத்தக்கூடியவையாக, இந்தியாவின் தனித்துவமான தேவைகளுக்கு ஏற்ப வடிவமைக்கப்பட்டவையாக இருக்க வேண்டும். அரசு, தொழில்நுட்ப நிறுவனங்கள், மற்றும் பொதுமக்கள் இணைந்து இந்தப் பயணத்தில் பங்கெடுக்க வேண்டும். இதன்மூலம், AI-இன் பயன்கள் அனைவருக்கும் கிடைக்கும், அதே சமயம் அதன் ஆபத்துகள் கட்டுப்படுத்தப்படும்.
இந்தியாவில் AI-இன் எதிர்காலம் பிரகாசமாக இருக்கிறது, ஆனால் இந்த பிரகாசத்தை பாதுகாக்க, இப்போது நடவடிக்கை எடுக்க வேண்டிய நேரம் இது.
உள்ளூர் முதல் உலகம் வரை பரபரப்பான ஹாட் செய்திகளை உடனுக்குடன் அறிய மாலைமுரசு யூடியூப் சேனலை காண இங்கே கிளிக் செய்யவும்