Meniu Shop

CHATBOTURILE AI GREȘESC MAI MULT PE MOMENT DECÂT ÎN TRECUT

Este greu să declarăm că aceste sisteme perseverează, sau care este mai bun din punctul de vedere al utilizatorului general.
DemonDani
DemonDani
Chatboturile AI greșesc mai mult pe moment decât în trecut

Când vorbiți cu un AI este absolut necesar să considerați răspunsul acestuia doar ca și o părere adițională foarte relativă, nu vom ști niciodată când halucinează anumite informații lipsă, sau se bazează pe unele irelevante sau complet nebazate. Însă consensul general este că acestea sunt mult mai precise în prezent decât în trecut. Dar o analiză recentă indică că defapt situația este contrară, mai rea.

Din ce în ce mai mulți folosesc instrumente AI în viața de zi cu zi, mulți dintre ei considerându-le o evoluție a motoarelor de căutare clasice, cum ar fi Google. De asemenea, tind să acorde credit deplin răspunsurilor lor, chiar și la locul de muncă, un aspect care poate avea consecințe neprevăzute. Halucinația acestora rămâne o problemă serioasă, dar informația este prezentată într-un volum și fel care o face credibil sau ignorabil.

NewsGuard, specializat în evaluarea și analiza site-urilor de știri și informații, a auditat cele 10 instrumente de AI cu cea mai mare bază de utilizatori posibil. Studiul final a fost publicat recent, cu rezultate șocante. Șase din zece chatboturi au tendințe de deteriorare anuală. Pe listă sunt și câteva noi, dar șase dintre ele au performanțe din ce în ce mai rele.

"Cele mai importante instrumente bazate pe inteligență artificială au furnizat în mod repetat informații false cu privire la subiectele studiate, mai mult de o treime - 35% - greșind ceva în sondajul din august 2025, comparativ cu doar 18% din răspunsurile din August 2024", a declarat NewsGuard.

Lipsa optimizărilor în ceea ce privește acuratețe este suficient de devastatoare în sine, dar faptul că este posibil să se lasă un chatbot să se degradeze în acest fel conturează o imagine foarte proastă. O proporție semnificativă falsurilor se datorează la modul în care funcționează, tind să răspundă în timp real, fără a analiza informațiile mai adânc, cu un set minim de parametrii. NewsGuard a subliniat că în urmă cu un an, instrumentele nu răspundeau la 31% din întrebări deoarece nu dispuneau de date, însă acum răspund, umplând golul cu date false.

Fiabilitatea serviciilor este grav compromisă și de faptul că tind să se agațe în mod repetat pe informații incorecte. În foarte puține cazuri au reușit să se corecteze ulterior. Potrivit NewsGuard, o altă cauză este creșterea activităților de dezinformare la nivel mondial, pe care instrumentele generative nu sunt capabile să le proceseze și să le abordeze în mod corespunzător, sau să le excludă pe loc. Scăderea numărului de surse de încredere degradează performanța lor.

Deschide galerie

Anul trecut Gemini era pe primul loc, dar acum a ajuns pe locul al doilea după o scădere semnificativă, iar Claude a ajuns pe primul loc egalând performanța de anul trecut. Instrumentul Anthropic a ratat doar 10%, iar în August 2024 avea încă doar 10% răspunsuri incorecte, între timp Gemini a scăzut de la 6,67% la 16,67%.

Grok s-a clasat pe locul al treilea, la egalitate cu You.com, având 33% din răspunsuri incorecte. Copilot și Mistral au avut rezultate la fel de rele, greșind 36% din răspunsuri,  iar ChatGPT și Meta au căzut la 40%, extrem de teribil.

Deschide galerie

Aceste companii ar trebui să facă ceva în acest sens, dar foarte puține au fost expuse în trecut în acest fel. Perspectivele nu sunt bune, și având în vedere că utilizarea acestora duce la și mai multe informații greșite din care se inspiră, viitorul pare destul de sumbru.

Îţi recomand

    Teste

      Articole similare

      Înapoi la început