Meniu Shop

ELON MUSK VA COMANDA 300 000 DE ACCELERATOARE GB200 AI DE LA NVIDIA PÂNĂ ÎN VARA ANULUI VIITOR

În prezent, este instalat un sistem de 100 000 de acceleratoare H100, dar acesta va fi înlocuit anul viitor cu un cluster de supercomputere cu 300 000 de acceleratoare B200.
J.o.k.e.r
J.o.k.e.r
Elon Musk va comanda 300 000 de acceleratoare GB200 AI de la Nvidia până în vara anului viitor

Acceleratoarele de inteligență artificială și software-ul care exploatează potențialul inteligenței artificiale sunt în plină expansiune. Mulți caută să profite de acest potențial de creștere, inclusiv Elon Musk, care a menționat recent că va comanda în curând un număr mare de acceleratoare de ultimă generație, de la Nvidia.

Șeful Tesla și SpaceX folosește în prezent un sistem destul de puternic format din 100 000 acceleratoare Nvidia H100 pentru a răspunde nevoilor "X", precum și un model de limbaj de nivel înalt brevetat, care ar putea funcționa în spatele unui robot de inteligență artificială numit Grok-1. Potrivit lui Elon Musk, acest sistem va fi format din acceleratoare H100 răcite cu lichid, care ar putea fi online în câteva luni, dacă totul decurge conform planului. De asemenea, acesta va fi esențial pentru furnizarea de servicii bazate pe AI și pentru antrenarea diferitelor modele de AI. Grokl în sine, este deja disponibil, iar funcționarea sa este foarte diferită de sistemele obișnuite bazate pe ChatGPT/Copilot și Gemini, deoarece este mai deschis, tinde să fie mai glumeț, și este inedit și din alte privințe, cu două moduri diferite de funcționare: amuzant și normal. Deocamdată, doar utilizatorii X Premium pot încerca această funcție.

Pentru a îmbunătăți Grok se pare că Elon Musk plănuiește o altă investiție mare, urmând să achiziționeze de la Nvidia nu mai puțin de 300.000 de GPU B200 până în vara anului viitor. În timp ce cele 100 000 de acceleratoare AI H100 oferă performanțe masive, sistemul care funcționează la un consum de energie de 1 gigawatt, nu merită să fie păstrat pentru mult timp, deoarece acceleratoarele de generație următoare construite în jurul arhitecturii Blackwell sunt semnificativ mai rapide, ceea ce duce la o eficiență energetică mai bună.

GPU-ul B200 consumă practic mai multă energie decât H100, dar este semnificativ mai rapid, oferind un avantaj de 4 ori mai mare în ceea ce privește performanța de formare și un avantaj de până la 30 de ori mai mare în ceea ce privește performanța de deducere. Punând pe câmpul de luptă de trei ori mai multe acceleratoare AI, care vor consuma semnificativ mai multă energie decât sistemul bazat pe H100, beneficiind de o creștere uriașă a puterii de calcul, ceea ce va permite o dezvoltare mai rapidă și mai eficientă, precum și o mai bună eficiență energetică generală.

Rămâne de văzut dacă Nvidia va fi capabilă să livreze un număr atât de mare de GPU B200, deoarece comanda de 300.000 de unități nu este o cantitate neglijabilă, mai ales că aceasta este doar comanda lui Elon Musk. Meta, Microsoft, Google și alte câteva companii majore având comenzi la NVIDIA. Aceasta a fost o problemă în trecut, cu termene de livrare uriașe care au dus la o avalanșă de clienți, Nvidia abia recuperând decalajul, dar situația s-a îmbunătățit în timp. Va apărea din nou o situație similară pentru acceleratoarele bazate pe Blackwell? Este posibil, dar numai timpul ne va spune acest lucru.

Îţi recomand

    Teste

      Articole similare

      Înapoi la început