Nvidia face o mișcare foarte importantă pe piața serverelor, unde a vândut de obicei doar acceleratoare AI și platformele sale de procesare AI bazate pe ARM. Se preconizează că noua platformă Vera Rubin, formată dintr-un procesor Vera și un GPU Rubin, vor fi disponibile nu numai ca o soluție completă, ci și separat.
Această ofertă înseamnă că va intra în competiție directă cu procesoarele Xeon Epyc. Deși furnizorul nu a anunțat încă modele separate, conform directorului Jensen Huang, vor exista mai multe variante ale procesoarelor ARM pentru a răspunde diferitelor nevoi ale partenerilor.
Cipul care alcătuiește procesorul Vera este un design monolitic cu 88 nuclee de procesare, cu suport Spatial Multithreading, astfel încât prin partajarea resurselor un procesor complet poate rula până la 176 fire simultan. Vestea bună poate fi că nucleele suportă în mod nativ sarcini de calcul FP8, fiind direct compatibile cu sarcini AI, deși GPU-ul va fi mult mai eficient îna cest sens. În cazul în care funcționalitatea este necesară, aceasta poate fi accesată în cadrul unei implementări SVE2 pe 6x128 de biți.
În plus față de nucleele de procesare, este nevoie și de memorii suficient de rapide, care vin sub forma cipurilor de memorie LPDDR5x, cu o lățime de bandă maximă de până la 1,5 TB/s. Nu este încă clar dacă se vor putea folosi cu memorii clasice, DDR5 RDIMM, sau doar cu cipuri de memorie LPDDR5x sub formă de module SOCAMM.
Nucleele procesorului sunt interconectate printr-un Scalable Coherency Fabric capabil să asigure o lățime de bandă de date de 3,4 TB/s, ceea ce asigură nu numai o viteze ridicate, ci și o latență redusă. Noile procesoare Vera pot fi conectate la acceleratoarele AI Nvidia cu ajutorul tehnologiei NVLink, în special la modelele care utilizează arhitectura Ruby, care pot avea o lățime de bandă de până la 1,8 TB/s.