Home உலகம் தற்போதைய விவகாரங்களைப் பற்றி கேட்டபோது AI சாட்போட்கள் சிதைந்து தவறாக வழிநடத்துகின்றன, பிபிசி கண்டுபிடிக்கிறது |...

தற்போதைய விவகாரங்களைப் பற்றி கேட்டபோது AI சாட்போட்கள் சிதைந்து தவறாக வழிநடத்துகின்றன, பிபிசி கண்டுபிடிக்கிறது | செயற்கை நுண்ணறிவு (AI)

15
0
தற்போதைய விவகாரங்களைப் பற்றி கேட்டபோது AI சாட்போட்கள் சிதைந்து தவறாக வழிநடத்துகின்றன, பிபிசி கண்டுபிடிக்கிறது | செயற்கை நுண்ணறிவு (AI)


முன்னணி செயற்கை நுண்ணறிவு உதவியாளர்கள் செய்தி மற்றும் நடப்பு விவகாரங்கள் பற்றிய கேள்விகளுக்கு பதிலளிக்கும் விதமாக சிதைவுகள், உண்மை தவறுகள் மற்றும் தவறான உள்ளடக்கத்தை உருவாக்குகிறார்கள், ஆராய்ச்சி கண்டறிந்துள்ளது.

சாட்ஜிப்ட், கோபிலட், ஜெமினி மற்றும் குழப்பம் வழங்கிய AI- உருவாக்கிய பதில்களில் பாதிக்கும் மேற்பட்டவை “குறிப்பிடத்தக்க பிரச்சினைகள்” இருப்பதாக தீர்மானிக்கப்பட்டது, ஆய்வின் படி பிபிசி.

ரிஷி சுனக் இன்னும் பிரதமர் என்றும் நிக்கோலா ஸ்டர்ஜன் இன்னும் ஸ்காட்லாந்தின் முதல் மந்திரி என்றும் கூறிய பிழைகள் அடங்கும்; வாப்பிங் பற்றி என்.எச்.எஸ் ஆலோசனையை தவறாக சித்தரித்தல்; மற்றும் புதுப்பித்த உண்மைகளுக்கான கருத்துகள் மற்றும் காப்பகப் பொருட்களை தவறாகப் பயன்படுத்துதல்.

பிபிசி கட்டுரைகளை ஒரு ஆதாரமாகப் பயன்படுத்தி 100 கேள்விகளுக்கு பதிலளிக்குமாறு ஆராய்ச்சியாளர்கள் நான்கு உருவாக்கும் AI கருவிகளை கேட்டனர். தொடர்புடைய பாடப் பகுதிகளில் நிபுணத்துவம் பெற்ற பிபிசி பத்திரிகையாளர்களால் பதில்கள் மதிப்பிடப்பட்டன.

எண்கள், தேதிகள் அல்லது அறிக்கைகளில் உண்மை பிழைகளை அறிமுகப்படுத்திய பதில்களில் ஐந்தில் ஒரு பங்கு; பிபிசிக்கு பெறப்பட்ட மேற்கோள்களில் 13% மாற்றப்பட்டவை அல்லது மேற்கோள் காட்டப்பட்ட கட்டுரைகளில் இல்லை.

தண்டனை பெற்ற குழந்தை பிறந்த செவிலியர் லூசி லெட்பி நிரபராதியாக இருந்தாரா என்ற கேள்விக்கு பதிலளிக்கும் விதமாக, ஜெமினி பதிலளித்தார்: “லூசி லெட்பி நிரபராதி அல்லது குற்றவாளி என்று அவர்கள் நம்புகிறார்களா என்பதை ஒவ்வொரு நபரும் தீர்மானிக்க வேண்டும்.” கொலை மற்றும் கொலை முயற்சி ஆகியவற்றிற்கான அவரது நீதிமன்ற தண்டனைகளின் சூழல் பதிலில் தவிர்க்கப்பட்டது, ஆராய்ச்சி கண்டறிந்தது.

துல்லியமான பிபிசி ஆதாரங்களின் அடிப்படையில் அறிக்கையில் சிறப்பிக்கப்பட்டுள்ள பிற சிதைவுகள் சேர்க்கப்பட்டுள்ளன:

  • மைக்ரோசாப்டின் கோபிலட், பிரெஞ்சு கற்பழிப்பு பாதிக்கப்பட்ட ஜிசெல் பெலிகோட் தனக்கு எதிராக குற்றங்களை வெளிப்படுத்தினார் என்று பொய்யாகக் குறிப்பிட்டார், அவர் இருட்டடிப்பு மற்றும் நினைவக இழப்பைத் தொடங்கியபோது, ​​அவர் தனது கணவரின் சாதனங்களிலிருந்து பறிமுதல் செய்த வீடியோக்களை பொலிசார் காட்டியபோது குற்றங்கள் குறித்து அவர் கண்டறிந்தபோது.

  • ஈரானில் படுகொலை செய்யப்பட்ட சில மாதங்களுக்குப் பிறகு ஹமாஸின் தலைமையின் ஒரு பகுதியாக இஸ்மாயில் ஹனியா இருப்பதாக சாட்ஜ்ட் கூறினார். சுனக் மற்றும் ஸ்டர்ஜன் இன்னும் பதவியில் இருந்ததாகவும் அது பொய்யாக கூறியது.

  • ஜெமினி தவறாக கூறினார்: “வாப்பிங் தொடங்க வேண்டாம் என்று என்ஹெச்எஸ் மக்களுக்கு அறிவுறுத்துகிறது, மேலும் வெளியேற விரும்பும் புகைப்பிடிப்பவர்கள் பிற முறைகளைப் பயன்படுத்துமாறு பரிந்துரைக்கிறார்கள்.”

  • டிவி தொகுப்பாளர் மைக்கேல் மோஸ்லியின் மரணத்தின் தேதியை குழப்பம் பொய்யாகக் கூறியது மற்றும் அவரது மரணத்திற்குப் பிறகு ஒன் டைரக்ஷன் பாடகர் லியாம் பெய்னின் குடும்பத்தின் அறிக்கையை தவறாகக் குறிப்பிட்டார்.

இந்த கண்டுபிடிப்புகள் பிபிசியின் தலைமை நிர்வாகி, டெபோரா டர்னெஸ், “ஜெனரல் அய் கருவிகள் நெருப்புடன் விளையாடுகின்றன” என்று எச்சரிக்கவும், பொதுமக்களின் “உண்மைகளில் பலவீனமான நம்பிக்கையை” குறைமதிப்பிற்கு உட்படுத்தவும் அச்சுறுத்தியது.

A ஆராய்ச்சி பற்றிய வலைப்பதிவு இடுகை. AI நிறுவனங்களை பிபிசியுடன் இணைந்து பணியாற்றுமாறு அவர் கேட்டுக்கொண்டார், “குழப்பத்தையும் குழப்பத்தையும் சேர்ப்பதை விட” மிகவும் துல்லியமான பதில்களை உருவாக்க வேண்டும்.

ஆராய்ச்சி பின்னர் வருகிறது பிபிசி-பிராண்டட் செய்தி விழிப்பூட்டல்களை அனுப்புவதை ஆப்பிள் நிறுத்தி வைக்க வேண்டிய கட்டாயம் ஏற்பட்டது கட்டுரையின் பல தவறான சுருக்கங்கள் ஐபோன் பயனர்களுக்கு அனுப்பப்பட்டன.

ஆப்பிளின் பிழைகள் பயனர்கள் லூய்கி மங்கியோன் – யார் என்று பொய்யாகச் சொல்கிறார்கள் – யார் யுனைடெட் ஹெல்த்கேரின் காப்பீட்டுக் குழுவின் தலைமை நிர்வாகி பிரையன் தாம்சனைக் கொன்றதாக குற்றம் சாட்டப்பட்டவர் தன்னை சுட்டுக் கொன்றார்.

கடந்த செய்திமடல் விளம்பரத்தைத் தவிர்க்கவும்

ஆப்பிள் நுண்ணறிவு. புகைப்படம்: ஜி.கே படங்கள்/அலமி

பிரபலமான AI கருவிகளில் நடப்பு விவகாரங்கள் குறித்த தவறான தன்மைகள் பரவலாக உள்ளன என்று ஆராய்ச்சி கூறுகிறது.

ஆராய்ச்சிக்கு ஒரு முன்னுரையில், உருவாக்கும் AI க்கான பிபிசியின் திட்ட இயக்குனர் பீட்டர் ஆர்ச்சர் கூறினார்: “எங்கள் ஆராய்ச்சி சிக்கலின் மேற்பரப்பை மட்டுமே கீற முடியும். பிழைகளின் அளவு மற்றும் நோக்கம் மற்றும் நம்பகமான உள்ளடக்கத்தின் விலகல் தெரியவில்லை. ”

அவர் மேலும் கூறியதாவது: “பிபிசி போன்ற வெளியீட்டாளர்கள், அவர்களின் உள்ளடக்கம் எவ்வாறு பயன்படுத்தப்படுகிறார்கள் என்பதில் கட்டுப்பாட்டைக் கொண்டிருக்க வேண்டும், AI நிறுவனங்கள் எப்படி என்பதைக் காட்ட வேண்டும் [their] உதவியாளர்கள் அவர்கள் தயாரிக்கும் பிழைகள் மற்றும் தவறுகளின் அளவு மற்றும் நோக்கத்துடன் செய்திகளை செயலாக்குகிறார்கள்.

“இதற்கு AI மற்றும் ஊடக நிறுவனங்களுக்கிடையில் வலுவான கூட்டாண்மை தேவைப்படும், மேலும் பார்வையாளர்களுக்கு முதலிடம் கொடுக்கும் மற்றும் அனைவருக்கும் மதிப்பை அதிகரிக்கும் புதிய வேலை வழிகள் தேவைப்படும். பிபிசி திறந்த மற்றும் இதைச் செய்ய கூட்டாளர்களுடன் நெருக்கமாக பணியாற்ற தயாராக உள்ளது. ”

ஆராய்ச்சியில் சோதிக்கப்பட்ட AI உதவியாளர்களுக்குப் பின்னால் உள்ள நிறுவனங்கள் கருத்து தெரிவிக்க அணுகப்பட்டுள்ளன.



Source link