Meta încearcă să țină pasul cu Microsoft-OpenAI și Google în ceea ce privește dezvoltarea inteligenței artificiale și orientează din ce în ce mai mulți ingineri către tehnologiile de inteligență artificială generativă. Scopul este de a face progrese pe acest front și nu pare să mai conteze cât de fiabilă este IA.
La Meta se lucrează foarte mult la dezvoltarea AI, iar compania își depune acum cu adevărat toate eforturile pentru a deveni cât mai bună în acest domeniu.
În total, platforma Meta angajează mii de oameni la nivel global în domeniul dezvoltării AI și are mai multe echipe diferite. Sub umbrela companiei se află și specialiști dedicați într-o echipă numită Responsible AI (RAI), al cărei scop este de a investiga în permanență impactul negativ pe care îl poate avea AI.
În prezent, este clar că pericolele IA trebuie abordate, deoarece aceasta poate provoca multe daune dacă nu este controlată corespunzător. În prezent, există nenumărate exemple de abuzuri, technologia fiind relativ nouă. Cu siguranță a fost un lucru bun faptul că o echipă dedicată a lucrat sub Meta pentru a recunoaște și a înțelege amenințările pe care le poate reprezenta această dezvoltare a tehnologiei. Cu toate acestea, putem vorbi despre acest lucru doar la timpul trecut, deoarece se pare că echipa axată pe dezvoltarea responsabilă a IA este de domeniul trecutului.
Într-un raport recent, s-a raportat că Meta ar fi desființat divizia Responsible AI. S-a efectuat o investigație destul de detaliată în această privință, bazându-se pe documente interne și alte surse, s-a raportat că gândirea responsabilă ar putea fi acum un lucru de domeniul trecutului - cel puțin cu mult mai puține resurse dedicate acesteia.
Meta a mutat membri valoroși ai echipei RAI în divizii axate pe dezvoltarea de produse de inteligență artificială generativă. De asemenea, unii angajați au ajuns să se alăture echipei de infrastructură AI a companiei, ca parte a "reorganizării" generale. Unii specialiști în AI au ajuns în alte companii. În mod clar, obiectivul Meta este de a se pune la punct cu orice preț.
În același timp, însă, va continua să pună accentul pe responsabilitate în comunicările sale. Acesta subliniază că dezvoltarea inteligenței artificiale trebuie să se desfășoare ținând cont de securitate. De asemenea, o pagină separată este dedicată sublinierii necesității de a plasa IA pe pilonii bunei guvernanțe. Aceasta menționează aspecte precum asigurarea unei responsabilități adecvate, realizarea transparenței, garantarea a protecției datelor cu caracter personal și, în același timp, fără a uita de securitatea generală.
Jon Carvill, un purtător de cuvânt al Meta, a confirmat parțial acest lucru într-o declarație anterioară, pe care The Information o reamintește. Oficialul a spus că societatea continuă să investească în securitate și fiabilitate atunci când vine vorba de dezvoltări de inteligență artificială. Se înțelege că membrii echipei pot lucra acum mai direct cu diferite departamente. Aceștia lucrează, de asemenea, pentru a sprijini eforturile de bază ale Meta în ceea ce privește dezvoltarea și implementarea responsabilă a IA atunci când dezvoltă produse de IA.
Cu toate acestea, Meta a refuzat să comenteze raportul. Trebuie remarcat faptul că vestea nu este complet neașteptată, deoarece Business Insider a raportat anterior că au avut loc reorganizări în acest domeniu, care au fost însoțite de concedieri. Ei bine, acum se pare că nu mai există un astfel de departament.
Aceasta nu este în niciun caz o veste bună, deoarece se poate observa că toată lumea se concentrează pe obținerea celor mai bune rezultate din AI-ul generativ. În mod clar, este o tehnologie periculoasă, cu un potențial aproape incalculabil de abuz. Companiile însele nu evaluează cu adevărat riscurile atunci când pun la dispoziție o inovație și nu prea au grijă să prevină abuzurile.