De la lansarea ChatGPT încoace, a devenit evident pentru un public larg că inteligența artificială generativă este un instrument excelent pentru a genera știri false. De asemenea, este foarte ușor să se creeze generatoare de imagini și alte îmbunătățiri pentru dezinformare. În ultimii 2 ani am văzut multe cazuri de conținut fals creat cu ajutorul AI care au ajuns pe mass-media, dar ceea ce vedem cu noua calamitate depășește anumite limite.
Literele "Hollywood" nu au fost afectate de foc și situația din Los Angeles nu este gravă deloc.
Au existat multe zvonuri pe social media care sunt parțial sau complet nefondate, și se pare că inteligența artificială a juca un rol în răspândirea și crearea acestora. De fapt, sursele de știri, în special ale celor care locuiesc acolo, au fost inundate cu rapoarte false. unele au fost preluate și de personalități majore. Un bun exemplu este știrea conform căreia peștii sunt de vină pentru lipsa apei destinate pompierilor, extragerea apei necesare afectând mediul lor.
În cele mai multe cazuri este ușor să recunoști falsurile, dar atunci când acestea încep să fie susținute de mai multe surse, și teorii, tot mai mulți tind să fie convinși. Mai mult, în cazul incendiului din Los Angeles, vedem din ce în ce mai multe știri false cu imagini sau chiar videoclipuri generate care le susțin. Acestea contribuie la dezinformarea în masă a populației.
Au apărut și declarații și anunțuri politice false în legătură cu evenimentele din Los Angeles, care încearcă să pară reale, un teren care trage semnale de alarmă. Au fost distribuite pe social media imagini create de inteligența artificială care includeau chiar și un filigran că erau generate, dar consumatorii de conținut nu prea l-au observat.
Publicul primește atât de multe informații false, încât site-urile de știri nu au capacitatea de a răspunde corespunzător. Doar falsurile cele mai grave și mai mediatizate pot fi contestate de canalele oficiale.
Postările de pe site-urile de știri care se concentrează pe "verificarea faptelor" din cauza apariției din ce în ce mai multor știri false, imagini și videoclipuri au devenit foarte dese. Nu ajută nici faptul că firmele de social media par să fie din ce în ce mai puțin controlate de proprietarii lor. Nu numai X, ci și Meta trec acum la un sistem mai relaxat, lăsând la latitudinea comunității să expună materialele false. Mișcarea este foarte problematică pentru că sunt suficiente probleme de rezolvat, și nu era necesar încă una majoră.
Inteligența artificială însă ajută și la combaterea incendiilor devastatoare, oferind o serie de modalități de a analiza informațiile, a procesa imaginile camerelor de luat vederi, și a ajuta la decizii rapide în caz de evenimente neașteptate. Dar din păcate, modul în care este folosit nu este cel mai optim pe moment, publicul fiind expus la efectele nocive al acestuia în primul rând..