AI are foarte multe probleme, și reprezintă pericole la care nici nu nea-m gândi, motiv pentru care este contant examinată. Cercetări sunt efectuate în mod regulat, iar cercetătorii de la MIT au creat un raport foarte interesant cu privire la modul în care funcționează chatbot-urile.
Cercetătorii MIT (Massachusetts Institute of Technology) au efectuat în ultimele luni un experiment foarte interesant, ale cărui rezultate au fost prezentate la conferința AAAI 2026 (Association for the Advancement of Artificial Intelligence). Acesta indică că chatbot-urile tratează persoanele dezavantajate cu mai puțină atenție, și cu prioritate redusă. Acest lucru reprezintă o problemă deosebit de gravă.
Oamenii deja marginalizați de societate ar putea fi în viitor și mai izolați, mai vulnerabili, chiar și prin intermediul inteligenței artificiale generative.
Cercetătorii americani au analizat trei modele lingvistice, GPT-4 dezvoltat de OpenAI, Claude 3 Opus creat de Anthropic și Llama 3 creat de Meta. În fiecare caz, au oferit o scurtă biografie la începutul conversației, incluzând nivelul de educație, nivelul de competență în limba engleză și naționalitatea. Apoi au folosit aceleași seturi de date (TruthfulQA și SciQ) pentru teste.
Cercetătorii au constatat că instrumentele au avut performanțe semnificativ mai slabe în ceea ce privește acuratețea în cazurile în care li s-a indicat că conversează cu o persoană de origine indiană, cu o engleză slabă, și un nivel scăzut de educație. Toate cele trei modele au tratat cazul similar, în frunte cu modelul antropic, care a produs cele mai curioase rezultate negative.
Claude 3 Opus a refuzat să răspundă în mult mai multe cazuri. Aproape 11 % dintre întrebările adresate au rămas fără răspuns pentru utilizatorul iranian, iar doar 3,6 % dintre întrebări au rămas fără răspuns pentru profilul bine educat în SUA.
Atunci când cercetătorii au analizat răspunsurile, au constatat că Claude a folosit un limbaj condescendent, ironic sau sarcastic în 43,7 % din cazuri pentru a răspunde utilizatorilor cu un nivel de educație mai scăzut, în comparație cu mai puțin de 1 % din cazuri pentru utilizatorii cu un nivel ridicat de educație. În unele cazuri modelul a mimat engleză incorectă. În cazul profilului iranian, Claude a refuzat să răspundă la subiecte precum anatomia aprofundată, evenimentele istorice și energia nucleară.
"LLM-urile sunt prezentate ca un instrument de promovare a accesului egal la informații, și de revoluționare a învățării personalizate", a declarat expertul MIT. "Însă rezultatele noastre sugerează că acestea defapt pot exacerba inegalitățile existente prin furnizarea sistematică de informații incorecte sau prin refuz selectiv. Persoanele care ar putea avea cea mai mare nevoie de informații corecte primesc cele mai rele, false sau chiar dăunătoare."
Cercetătorii MIT spun că personalizarea trebuie tratată cu atenție mare, și există îngrijorări serioase cu privire la faptul că dezvoltatorii încearcă în mod constant să o facă cât mai disponibilă. Ca urmare, cei care au posibilități mai modeste și doresc să învețe prin intermediul AI se vor afla într-o poziție mai dificilă decât clasele educate.