În domeniul inteligenței artificiale, companiile de tehnologie calcă pe accelerație, și în unele cazuri, fac greșeli grave. Cu un minim de prudență și autocritică, noua funcție AI Overview a Google at fi fost amânată, dar l-au lansat și a avut un efect teribil.
Microsoft a îmbunătățit semnificativ motorul de căutare Bing în ultimul an, folosind modelul de limbaj mare GPT, și deși nu a fost un proces ușor, rezultatul general a fost unul utilizabil. Desigur, incorectitudinea și halucinațiile tipice AI generative sunt la fel de frecvente în rezumatele de căutare Bing ca și în orice chatbot. Dacă aceasta ar fi fost singura problemă cu noua soluție AI Overview a Google, nu ar fi fost o problemă atât de mare, dar situația este mult mai gravă aici.
AI Overview apare înainte de rezultatele fiecărei căutări și încearcă să rezume ceea ce utilizatorul ar putea dori să știe. Se pot pune întrebări și se poate răspunde la ele, dar încearcă, să ofere și un rezumat pentru termeni de căutare simplii. De asemenea, Google Search poate oferi pe mai multe carduri un rezumat al celor mai relevante cunoștințe despre subiectul pe care utilizatorul încearcă să îl afle. Scopul ar fi acela de a face ca găsirea informațiilor să fie cât mai rapidă și mai ușoară posibil.
Când compania a anunțat AI Overview la Google I/O, mulți s-au întrebat cât de fiabil va fi. A devenit clar foarte repede că tot ceea ce serviciul colectează și tipărește în întrebări și căutări ar trebui tratat cu prudență, deoarece erorile factuale erau prezente tot timpul. De atunci, rețelele de socializare au fost literalmente inundate de rezultate interesante și surprinzătoare al AI Overview.
Aveți o problemă cu topping-urile care vă cad de pe pizza? Google are soluția: trebuie doar să aplicați puțin lipici pe garnitură și se rezolvă. Bineînțeles, vă avertizează să aveți grijă cu lipiciul toxic - trebuie evitat.
Inteligența artificială cercetează internetul în căutare de răspunsuri, și după toate indiciile, nu este capabilă să își verifice rezultatele, tratând toate informațiile nefondate ca fapte și transmițându-le utilizatorilor ca atare. Cazul cu pizza și lipiciul a pornit de la o postare pe Reddit în urmă cu mai bine de 10 ani și a fost în mod clar o glumă. Dar AI Overview nu înțelege deloc gluma și nu vede contextul, așa că "știe" că Batman este un polițist și că ar trebui să mănânci pietre pentru că sunt pline de vitamine și minerale.
AI Overview nu apare la fiecare căutare, iar Google lucrează pentru a se asigura că, în cazurile în care rezultatele sunt incerte, nu apare rezumat AI. În unele situații, angajații încearcă să dezactiveze manual funcția pentru căutările care produc rezultate bizare.
Este deosebit de jenant în situația actuală, faptul că AI Overview nu a fost implementat ca urmare a unei cercetări de câteva zile. Compania a anunțat un test beta al predecesorului său, Search Generative Experience, anul trecut, așa că este vorba de mai mult de un an de muncă, și cu toate acestea rezultatu este șocant de rea. Bineînțeles, internetul îl tachinează direct și îi pun întrebări stupide, așteptându-se ca acesta să vină cu un răspuns ridicol - și în multe cazuri nu dezamăgește.
Cel puțin costurile au fost mici în timpul dezvoltării, după cum a spus deja Sundar Pichai. Șeful Google a spus că au reușit să reducă costul generării răspunsurilor cu 80%, ceea ce este încă mult mai mare decât costul de servire a unor căutări simple pe Google, dar direcția este foarte bună. Pichai a adăugat că au primit peste 1 miliard de interogări în perioada de testare.
Google a recunoscut că în multe cazuri, AI Overview nu se poate decide clar, dar a adăugat că este deja capabil să ofere răspunsuri de bună calitate în marea majoritate a cazurilor pentru interogări normale. Așadar, Google spune că nu este o problemă atât de mare, trebuie doar să vă străduiți în mod deliberat să întrebați ceva nefiresc ca să primiți un răspuns aberant.
Până acum, inteligență artificială generativă evoluează promițător și adoptă repede inovații, deși unele sunt lansate mai stângaci, ca în cazul prezent. Iar internetul va trebui să învețe faptul că întrebările stupide primesc răspunsuri stupide.