சந்திரனில் இறங்குவது ஒருபோதும் நடக்கவில்லை என்ற தவறான எண்ணமாக இருந்தாலும் அல்லது கோவிட் ஜாப்களில் மைக்ரோசிப்கள் உள்ளன என்ற தவறான கூற்றாக இருந்தாலும், சதி கோட்பாடுகள் ஏராளமாக உள்ளன, சில நேரங்களில் ஆபத்தான விளைவுகளுடன்.
செயற்கை நுண்ணறிவுடன் (AI) அரட்டையடிப்பதன் மூலம் இத்தகைய நம்பிக்கைகளை மாற்றியமைக்க முடியும் என்று இப்போது ஆராய்ச்சியாளர்கள் கண்டறிந்துள்ளனர்.
“சதி கோட்பாடுகளை நம்புபவர்கள் அரிதாகவே, எப்போதாவது, குறிப்பாக ஆதாரங்களின்படி, தங்கள் மனதை மாற்றிக்கொள்வார்கள் என்பதை வழக்கமான ஞானம் உங்களுக்குச் சொல்லும்” என்று அமெரிக்க பல்கலைக்கழகத்தின் ஆய்வின் இணை ஆசிரியரான டாக்டர் தாமஸ் காஸ்டெல்லோ கூறினார்.
அது, கட்டுப்பாட்டிற்கான ஆசை போன்ற பல்வேறு தேவைகளைப் பூர்த்தி செய்வதற்காக இத்தகைய நம்பிக்கைகளை மக்கள் ஏற்றுக்கொள்வதைக் குறைக்கும் என்று அவர் மேலும் கூறினார். இருப்பினும், புதிய ஆய்வு வேறுபட்ட நிலைப்பாட்டை வழங்குகிறது.
“யாராவது ‘முயல் துளைக்குள்’ சென்று ஒரு சதிக் கோட்பாட்டை நம்பினால், ஆதாரங்களும் வாதங்களும் சிறிதும் பயன்படாது என்ற பார்வையை எங்கள் கண்டுபிடிப்புகள் அடிப்படையில் சவால் செய்கின்றன” என்று குழு எழுதியது.
முக்கியமாக, ஆராய்ச்சியாளர்கள் கூறுகையில், அணுகுமுறையானது AI அமைப்பை நம்பியுள்ளது, இது விமர்சன சிந்தனையை ஊக்குவிக்கும் மற்றும் குறிப்பிட்ட, உண்மை அடிப்படையிலான எதிர்வாதங்களை வழங்கும் உரையாடல்களை உருவாக்க பரந்த அளவிலான தகவல்களை வரைய முடியும்.
“அந்த நபர் என்ன நம்புகிறார் என்பதை AI முன்கூட்டியே அறிந்திருந்தது, அதன் காரணமாக, அது அவர்களின் துல்லியமான நம்பிக்கை முறைக்கு ஏற்ப அதன் தூண்டுதலை மாற்றியமைக்க முடிந்தது” என்று கோஸ்டெல்லோ கூறினார்.
அறிவியல் இதழில் எழுதுதல்கோஸ்டெல்லோவும் சக ஊழியர்களும் சதி கோட்பாடுகளில் நம்பிக்கையுடன் 2,190 பங்கேற்பாளர்களை உள்ளடக்கிய தொடர் சோதனைகளை எவ்வாறு மேற்கொண்டனர் என்று தெரிவித்தனர்.
சோதனைகள் சற்று மாறுபடும் போது, அனைத்து பங்கேற்பாளர்களும் தாங்கள் நம்பிய ஒரு குறிப்பிட்ட சதி கோட்பாட்டையும் அதை ஆதரிப்பதாக அவர்கள் கருதிய ஆதாரங்களையும் விவரிக்கும்படி கேட்டுக்கொள்ளப்பட்டனர். இது பின்னர் ஊட்டப்பட்டது “DebunkBot” எனப்படும் AI அமைப்பு.
பங்கேற்பாளர்கள் சதி கோட்பாடு எவ்வளவு உண்மை என்று அவர்கள் நினைத்தார்கள் என்பதை 100-புள்ளி அளவில் மதிப்பிடுமாறு கேட்டுக்கொள்ளப்பட்டனர்.
பின்னர் அவர்கள் தெரிந்தே அவர்களின் சதி கோட்பாடு அல்லது சதி அல்லாத தலைப்பு பற்றி AI அமைப்புடன் முன்னும் பின்னுமாக மூன்று சுற்று உரையாடலை மேற்கொண்டனர். பின்னர், பங்கேற்பாளர்கள் தங்கள் சதி கோட்பாடு எவ்வளவு உண்மை என்று மீண்டும் மதிப்பிட்டனர்.
சதி அல்லாத தலைப்புகளைப் பற்றி விவாதித்தவர்கள் தங்கள் “உண்மை” மதிப்பீட்டை சிறிது குறைத்ததை முடிவுகள் வெளிப்படுத்தின. இருப்பினும், AI உடன் தங்கள் சதி கோட்பாட்டைப் பற்றி விவாதித்தவர்கள், சராசரியாக, அது உண்மை என்று நம்புவதில் 20% வீழ்ச்சியைக் காட்டியது.
இந்த அணுகுமுறையானது கிட்டத்தட்ட அனைத்து வகையான சதி கோட்பாட்டிற்கும் வேலை செய்யும் அதே வேளையில், விளைவுகள் குறைந்தது இரண்டு மாதங்களுக்கு நீடித்ததாகத் தோன்றியதாக குழு கூறியது – அது உண்மை இல்லை என்றாலும்.
பங்கேற்பாளருக்கு நம்பிக்கை எவ்வளவு முக்கியமானது மற்றும் AI மீதான அவர்களின் நம்பிக்கை உள்ளிட்ட காரணிகளைப் பொறுத்து விளைவின் அளவு தங்கியுள்ளது என்று ஆராய்ச்சியாளர்கள் மேலும் தெரிவித்தனர்.
“சதிக் கோட்பாட்டை நம்பி சோதனையைத் தொடங்கிய நான்கில் ஒருவர் அந்த நம்பிக்கையின்றி மறுமுனையில் வெளியேறினார்” என்று கோஸ்டெல்லோ கூறினார்.
“பெரும்பாலான சந்தர்ப்பங்களில், AI மட்டுமே சிப் செய்ய முடியும் – மக்களை இன்னும் கொஞ்சம் சந்தேகம் மற்றும் நிச்சயமற்றதாக ஆக்குகிறது – ஆனால் தேர்ந்தெடுக்கப்பட்ட சிலர் தங்கள் சதித்திட்டத்தை முழுவதுமாக பயன்படுத்தவில்லை.”
ஒரு சதிக் கோட்பாட்டின் மீதான நம்பிக்கையைக் குறைப்பது, பங்கேற்பாளர்களின் நம்பிக்கையைக் குறைப்பதாகத் தோன்றியது, குறைந்தபட்சம் ஒரு சிறிய அளவிற்கு, அணுகுமுறை உண்மையான உலகில் பயன்பாடுகளைக் கொண்டிருக்கலாம் – எடுத்துக்காட்டாக, சதி தொடர்பான இடுகைகளுக்கு AI பதிலளிக்கலாம். சமூக ஊடகங்களில் கோட்பாடுகள்.
பணியில் ஈடுபடாத கேம்பிரிட்ஜ் பல்கலைக்கழகத்தின் பேராசிரியர் சாண்டர் வான் டெர் லிண்டன், நிஜ உலகில் இதுபோன்ற AI உடன் மக்கள் தானாக முன்வந்து ஈடுபடுவார்களா என்று கேள்வி எழுப்பினார்.
பங்கேற்பாளர்கள் ஒரு அநாமதேய மனிதருடன் அரட்டையடித்திருந்தால் இதேபோன்ற முடிவுகள் கிடைக்குமா என்பது தெளிவாகத் தெரியவில்லை, அதே சமயம் AI சதி நம்பிக்கையாளர்களை எப்படி நம்ப வைத்தது என்ற கேள்விகளும் உள்ளன, இந்த அமைப்பு பச்சாதாபம் மற்றும் உறுதிமொழி போன்ற உத்திகளையும் பயன்படுத்துகிறது.
ஆனால், அவர் மேலும் கூறினார்: “ஒட்டுமொத்தமாக, இது மிகவும் புதுமையான மற்றும் முக்கியமான கண்டுபிடிப்பு மற்றும் தவறான தகவலை எதிர்த்துப் போராட AI எவ்வாறு பயன்படுத்தப்படலாம் என்பதற்கான சிறந்த எடுத்துக்காட்டு.”