Nvidia domină piața acceleratoarelor de inteligență artificială, cu o cotă de piață de peste 80%, dar cifra exactă variază de la un analist la altu. În fundal atât Intel, cât și AMD lucrează din greu pentru a-și dezvolta propriile soluții care să le permită să profite din piața AI și HPC, dar nu va fi ușor. Între timp, echipa de dezvoltare a Nvidia lucrează deja în spatele scenei la noua arhitectură, numită după Vera Rubin, Ruby, care promite să schimbe regulile jocului în segmentul acceleratoarelor AI.
Potrivit zvonurilor din industrie, raportate de popularul analist Ming-Chi Kuo prin intermediul coloanelor virtuale de pe medium.com, producția în masă a acceleratorului AI de nouă generație, R100, ar putea începe încă de la sfârșitul anului 2025. Produsele construite în jurul noului GPU ar putea începe să apară în configurațiile de pe piața serverelor la scurt timp după aceea, la începutul anului 2026, ceea ce înseamnă că există șanse mari ca acestea să înceapă să cucerească segmentul centrelor de date încă de la jumătatea anului 2026. Noua dezvoltare se pare că Nvidia se concentrează pe îmbunătățirea eficienței energetice, deoarece TDP a devenit destul de ridicat pentru produsele bazate pe Blackwell. Nu este încă clar dacă vor încerca să crească și performanța prin reducerea cadrului TDP.
Ceea ce este sigur este că GPU B200 poate avea un TDP de până la 1000 W, în timp ce GB200 în tandem și un procesor Grace poate atinge un TDP de până la 2700 W. Întreținerea unui astfel de consum de energie și a unei astfel de generări de căldură nu este o sarcină simplă, și poate prezenta provocări noi pentru operatorii centrelor de date, deoarece aceste sisteme pot avea nu câteva, ci sute sau mii de acceleratoare, iar răcirea și alimentarea cu energie în astfel de cantități nu este ușoară. Este posibil ca această situație să fie ajutată de proliferarea răcirii prin imersie, dar acest lucru nu este încă foarte fezabil.
Se zvonește că acceleratorul R100 va folosi încapsularea CoWoS-L, dar încă nu este clar care va fi arhitectura exactă, în ceea ce privește resursele GPU, iar arhitectura interpozitorului, stratul de substrat care conectează chipset-urile și alte componente, nu a fost încă finalizată. La bordul lui R100, se așteaptă să fie disponibile până la opt sandvișuri de cipuri de memorie HBM, dar acestea vor fi HBM4 și nu HBM3E, ceea ce înseamnă o creștere masivă a lățimii de bandă a memoriei.
Se zvonește că noile acceleratoare de inteligență artificială vor fi construite folosind una dintre tehnologiile de fabricație de clasă N3 ale TSMC, poate cu o versiune personalizată a nodului N3P care poate fi adaptată la nevoile Nvidia. Teoretic, nodul N2 al TSMC ar putea fi gata de implementare până la sfârșitul anului 2025, dar N3P are avantajul de a fi mai matur, mai ieftin de implementat decât N2 și de a avea o rată de randament mai mare datorită maturității sale, astfel încât ar putea fi mai rentabil pentru Nvidia să opteze pentru N3P.
Având în vedere că segmentul de piață al acceleratoarelor AI și HPC este în plină expansiune în aceste zile, este foarte probabil ca oficialii Nvidia să prezinte acceleratoarele bazate pe Ruby la evenimentul GTC 2025 de anul viitor, pentru a le oferi jucătorilor de pe piață o avertizare în timp util cu privire la ceea ce trebuie să se aștepte de la echipa internă a furnizorului, astfel încât clienții să se poată pregăti pentru sosirea produselor și să își plaseze comenzile din timp.