Deocamdată Apple este aproape complet eliminată din "războiul soluțiilor cu AI". Microsoft, Meta și Google vin lunar, sau mai degrabă săptămânal, cu dezvoltări mici și mari pentru a le promova. Recent, au apărut informații potrivit cărora Apple lucrează, la o soluție adaptată la propriile nevoi și care va fi diferită de cele obișnuite.
Este ceva obișnuit ca Apple să încerce să facă ceva diferit în dezvoltarea sa. Încearcă să găsească o modalitate de a străluci, chiar dacă este mult în urma concurenților săi. Acesta ar putea fi cazul dezvoltării AI, iar analistul Mark Gurman de la Bloomberg a dezvăluit recent care ar putea fi tragerea mare al Apple în materie de AI.
Inteligența artificială generativă specială și modelul lingvistic care stă la baza acesteia vor funcționa în întregime local.
Anul trecut, Google a început să sublinieze puternic importanța inteligenței artificiale cu smartphone-urile Pixel, și a venit cu mai multe dezvoltări legate de AI. Apoi, Samsung a venit și a evidențiat-o și mai mult cu seria Galaxy S24, unde nu îmbunătățirile hardware au fost cele care au luat spectacolul, ci AI-ul Galaxy.
Atât Pixel, cât și pachetul Galaxy AI, au funcții mai mici și mai mari care folosesc deja tehnologia AI generativă executată local. Apple, pe de altă parte, pretinde să rezolve fiecare aspect a propriei sale AI, la nivel local. Este probabil ca în acest caz compania să sublinieze că acest lucru va garanta securitatea datelor. Apple încearcă să se axeze pe securitate, iar argumentul că datele sensibile nu pot fi transmise unor terți, este adesea folosit ca argument pentru soluțiile de inteligență artificială.
Pe lângă o mai bună protecție a datelor, un alt avantaj al rulării operațiunilor de AI la nivel local, este că acestea pot fi mai rapide și mai eficiente. Funcțiile care se bazează pe servicii cloud nu sunt disponibile offline, și se pot bloca pe conexiuni lenteși generează un trafic adițional, ceea ce poate face ca oamenii să fie vulnerabili în funcție de pachetul de abonament. De asemenea, latența va fi semnificativ mai mică dacă rezultatele pot fi produse la nivel local.
Crearea propriului model lingvistic de mari dimensiuni poate părea o sarcină dificilă la început, dar de fapt, nu este deloc diabolică și puteți asambla un sistem LLM funcțional și compact în câteva luni cu rezerve modeste. În ultimii 1,5 ani, au apărut mai multe soluții care au fost create în câteva luni, cu ar fi Grok-1 al Elon Musk, care a durat doar 4 luni pentru a-l crea, dar acesta nu este singurul astfel de "proiect fulger". Iar Apple are la dispoziție resurse aproape nelimitate.
Compania se pare că se află în discuții cu mai mulți giganți AI, iar Gurman crede că Google este cel mai probabil partener pe acest front. Unele funcții posibil fiind executate de Gemini sau de un alt model lingvistic similar. Pentru funcțiile de inteligență artificială generativă, care necesită mai multă putere de calcul decât cel oferit de dispozitiv, ar putea intra în joc o soluție dezvoltată separat.