Cred că nu sunt singurul care se teme că vom fi inundați complet cu conținut generat, bazat pe informații deja generate de calitate ciclică din ce în ce mai proastă. Deja suntem obosiți de amalgamul din prezent, iar viitorul tinde a fi sumbru în acest sens, mai ales că afectează deja negativ modul de gândire al oamenilor. Un excelent exemplu în acest sens tocmai a fost oferit de The Guardian, într-un raport recent privind modul în care ChatGPT se compară cu Grok.
Documentul a început în mod deliberat să analizeze relația dintre cel mai recent model utilizat de OpenAI și Grokipedia. Grokipedia este în prezent cea mai mare platformă generativă de informații AI din lume. Articolele sunt servite într-un mod similar cu Wikipedia, doar că Grok le creează pe baza informațiilor culese din diferite surse și pe care le consideră adevărate - atunci când nu copiază literalmente conținutul din Wikipedia.
Platforma este adesea subiectul dezbaterilor, devreme ce conținutul acestuia nu este prea realistă. Grokipedia nu se sperie să falsifice fapte istorice, în paralel cu lupta sa împotriva minciunilor și a idealogiei woke. Principala afirmație a sa în acest context este că platforma conține adevărul pur pe fiecare subiect, și că faptele nu sunt distorsionate pentru a le face corecte din punct de vedere politic.
S-ar putea vorbi mult și pe larg despre cât de multe subiecte par să nu facă față acestei afirmații pe paginile Grokipedia. Mai ales că aceste informații se pot manipula manual și ulterior. Însă OpenAI se bazează în mod clar pe Grokipedia ca și sursă pentru modelul GPT-5.2, care este cel mai recent și mai avansat disponibil.
The Guardian a încercat să enumere principalele aspecte în care se consideră că Grokipedia minte sau cel puțin nu prezintă informații general acceptate. Există câteva domenii larg cunoscute în care informațiile au fost falsificate, cum ar fi asediul Capitolului SUA, campania cu tentă contra lui Donald Trump, sau epidemia HIV/SIDA. Acestea par să fi fost acceptate cu succes de OpenAI, care dispune de un sistem intern de verificare a faptelor. Dar se știe că nu este cel mai eficient.
The Guardian a constatat că platforma OpenAI a citat Grokipedia pe teme precum situația din Iran și negarea Holocaustului.
Această cercetare a fost interesantă pentru The Guardian, deoarece au căutat subiecte pe care ei înșiși le-au respins, iar ChatGPT a ieșit păcătos din situație. Anterior, s-a raportat și că Sir Richard Evans a găsit informații false în propriul său glosar, dar ChatGPT nu a avut nici o problemă în a "învăța" aceste afirmații eronate din Grokipedia.
Toate instrumentele de inteligență artificială generativă sunt dezvoltate la cele mai înalte standarde posibile și sunt puse la dispoziție cât mai multe informații pentru a le învăța. Au existat deja probleme legate de faptul că diferitele modele lingvistice absorb date neîntemeiate atunci când sunt învățate, dar aceste date provin de obicei de la persoane fără acreditare. "Învățarea" de la Grokipedia este o sursă de informații periculoasă dacă este automată.
Halucinațiile și inexactitățile care apar în toate modelele pot fi tratate ca date fiabile de către diferite limbaje AI. Nu au compas moral sau capacitatea de a înțelege informația în mod real. Pur și simplu le integrează și formează propriul lor univers, adesea intangibil cu realitatea. Nu doar ChatGPT are probleme, The Guardian a raportat că Claude a avut și el exemple de răspunsuri problematice provenite de la Grokipedia, dar că au fost mai puțin frecvente.