Evenimentul Meta Connect 2024 s-a axat pe realitatea virtuală și augmentată, dar compania nu putea rata ocazia de a evidenția inteligența artificială. Alături de Microsoft și Google, Meta este a treia companie de tehnologie majoră care menține inteligența artificială pe ordinea de zi. De data aceasta, ne-a oferit o privire asupra inovațiilor sale experimentale, alături de dezvoltările sale actuale.
A apărut Llama 3.2 multimodal
În urmă cu două luni, Meta a anunțat modelul le limbaj Llama 3.1, care a prezentat îmbunătățiri semnificative, și potrivit companiei, era deja înaintea rivalilor în multe domenii. În cadrul evenimentului, a dezvăluit Llama 3.2. De data aceasta, nu este vorba de o îmbunătățire de performanțe și capacități, ci de o inovație mult mai spectaculoasă, deoarece modelul nou poate crea și interpreta imagini, precum și a înțelege texte în paralel. Funcționarea multimodală va fi oferită pentru două variante diferite al modelului.
Llama 3.2 este deja capabilă să interpreteze ceea ce vede în realitatea augmentată și să acționeze pe baza comenzilor și solicitărilor utilizatorului. Datorită funcționării multimodale vizuale și bazate pe text, va fi posibilă utilizarea eficientă a instrumentelor AR. Va putea să rezume și să evidențieze și semnificația informațiilor vizibile pentru utilizator.
Meta consideră foarte important să poată dezvolta îmbunătățiri pentru realitatea augmentată, după ce compania a avut un succes frumos cu ochelarii inteligenți Ray-Ban Meta.
Modelul de bază pentru Llama 3.2 are 405 miliarde de parametri și va fi disponibil pentru dezvoltatori în patru versiuni. Două vor oferi operare multimodală, una cu 90 miliarde parametri și cealaltă cu doar 11 miliarde, aceasta din urmă putând fi rulată local. În plus, vor exista două modele care pot fi folosite local de dispozitive mobile mai modeste, unul cu 3 miliarde parametri și celălalt cu doar una. Aceste modele Llama 3.2 mai mici, vor fi disponibile doar pentru text.
Meta AI la un nou nivel
Meta AI este în continuă evoluție, și este principalul produs AI al companiei, pe care îl pune acum la dispoziția publicului larg. Deoarece Europa este evitată pentru moment (reglementările mai stricte de pe bătrânul continent înseamnă că multe dezvoltări de modele AI și lingvistice trebuie abandonate, motiv și pentru care lansarea Apple Intelligence este amânată până în 2025 în regiunea noastră). Chatbotul va fi capabil să folosească vocile unor personalități cunoscute. Meta AI a primit vocile unor celebrități precum Awkwafina, John Cena, Keegan-Michael Key, Kristen Bell și Judi Dench.
Această posibilitate va fi disponibilă doar în SUA pentru moment, dar se va extinde treptat la mai multe regiuni acceptate. Vocile folosibile vor fi extinse constant, cu mai multe opțiuni, nu neapărat al unor "celebrități". Meta nu a dezvăluit cât a pătiti pentru a fi capabil să folosească aceste voci, dar potrivit The Wall Street Journal, a plătit milioane persoanelor implicate.
O altă caracteristică nouă a Meta AI este că puteți pune întrebări despre fotografii, pe care le va procesa multimodal. Meta AI poate fi solicitată să ajute și la editarea imaginilor, prin instrucțiuni text.
O altă funcție nouă a Meta AI, este că va putea să creeze fundaluri personalizate pentru "Stories". Ca fi capabil a șterge, schimba, umple, sau modifica fundalul imaginilor . Acest lucru poate face conținutul de pe Instagram și Facebook și mai atrăgător.
Generatorul de imagini Imagine, parte al Meta AI, poate crea și conținut interesant, folosind fața utilizatorului. Prin utilizarea simultană a instrucțiunilor text și a portretelor, utilizatorii se pot distra cu "fotografiile" create de sistemul Meta.
Adițional, Meta testează deja posibilitatea traducerii videoclipurilor. În mod experimental, este deja posibilă schimbarea pistei audio într-un videoclip spaniol în engleză, folosind AI. Videoclipurile sincronizate vor fi marcate ca traduse de Meta AI.
Meta se dezvoltă inovații interesante în domeniul IA
Meta a dezvăluit că dezvoltă instrumente AI care ar putea schimba complet lumea influencerilor. Compania a vorbit foarte ambițios despre dezvoltarea Meta Creator AI, care ar putea transforma creatorii de conținut în avatari complet digitali. Aceștia ar crea o copie virtuală a persoanei, le-ar adăuga vocea, și chiar cunoștințele de bază pe baza informațiilor disponibile. Clonele personale ar arăta, ar acționa, și s-ar mișca precum originalul și ar încerca să răspundă la întrebările care le sunt adresate, la fel ca și cum ar fi o persoană reală.
Compania intenționează să facă materialele încărcate disponibile automat în mai multe limbi pe platformele sociale cu traducere imediată. Acest lucru ar putea crește în mod semnificativ accesul la materiale străine. Mergând chiar mai departe, compania ar manipula videoclipurile astfel încât vocea să fie sincronizată cu mișcarea gurii, exact ca și cum persoana respectivă ar vorbi în limba tradusă.
Meta planifică cu mulți ani înainte inovațiile sale, acestea urmând să fie implementate în lunile și anii următori. Majoritatea acestor evoluții vor fi introduse mai întâi în SUA, și trebuie remarcat faptul că în Europa ne aflăm într-o poziție deosebit de dezavantajată în această privință.