Dezvoltatorii Intel intenționează să utilizeze potențialul inteligenței artificiale pentru a reduce semnificativ memoria utilizată de texturi în jocurile moderne. Conceptul este foarte similar cu cel la care lucrează Nvidia.
Ideea de bază în ambele cazuri este că în loc de compresia tradițională a texturilor și a datelor materiale asociate acestora, se încearcă implementarea unora care utilizează rețele neuronale pentru optimizarea corespunzătoare. Acest lucru se face prin stocarea texturilor într-o formă care poate fi redată de o rețea neuronală mică și instruită corespunzător: texturile rezultate sunt în acest caz create, nu încărcate, iar cantitatea de date necesară pentru a face acest lucru este semnificativ mai mică decât dacă texturile ar trebui stocate direct în memoria video, la mărimea maximă. Conceptul constă în depășirea limitărilor compresiei tradiționale bazate pe blocuri, prin antrenarea unei rețele neuronale pentru a codifica și decoda setul de texturi. Datele latente sunt stocate într-o piramidă de hărți caracteristice cu patru straturi în format bazat pe BC-1, iar apoi canalele texturii originale sunt reconstruite prin intermediul unui decodor MLP cu trei straturi.
Modelul lui Intel poate fi utilizat într-o varietate de moduri, inclusiv compresie la instalare, compresie la încărcare, streaming și eșantionare în timp de execuție bazată pe pixeli, în funcție de obiectiv: reducerea capacității de stocare, reducerea lățimii de bandă a memoriei sau reducerea utilizării VRAM.
Tehnologia specială nu numai că reduce utilizarea VRAM, dar permite și ca jocurile preoptimizate să devină foarte mici, făcându-le mai ușor de descărcat prin internet, și se vor încărca rapid de pe dispozitivul de stocare. VRAM-ul eliberat poate fi utilizat și pentru alte funcții, dar adevăratul beneficiu este că nu va mai fi nevoie de o cantitate minimă strict necesară de a rula jocuri optim (cei 16GB curenți), ci se vor mulțumi și cu jumate sau mai puțin. Adițional, datele similare cu graficii vectoriale se pot interpreta mai optim și se pot aplica pe ele diferite optimizări, esențiale la upscaling, oferind detalii extreme la aproape orice rezoluție nativă.
Potrivit Intel, tehnologia Texture Set Neural Compression va avea două moduri de funcționare implicită. Versiunea axată pe calitatea imaginii ar putea duce la o reducere de aproximativ 9 ori a utilizării memoriei în comparație cu metoda clasică de compresie, dar valoarea reală a îmbunătățirii va depinde de complexitatea etapei. În ceea ce privește calitatea imaginii, cea de bază va fi degradată, dar se promite că doar în zone minime în care abia sunt vizibile.
Celălalt mod se concentrează pe consumul cât se poate de mic de memorie, ceea ce ar putea duce la o îmbunătățire de 17 - 18x, dar cu mai multe artefacte. Pe moment tehnologia este în optimizare, ceea ce ar putea duce la un rezultat mai bun la versiunea lansată.
Soluția proprie a Nvidia are deja un demo, și este capabilă să reducă ocupația VRAM de 6,5 GB până la 970 MB, o reducere de 85%, fără o reducere de calitate prea mare, deși nu a fost făcut de entități independente, este doar o mostră preliminară
Soluției Intel însă este ceva mult mai bun decât cea al lui Nvidia, prin simplul fapt că nu necesită strict o placă video Nvidia din seria 50, deși tehnologia Cooperative Vectors a DirexctX 12 permite o anumită deschidere în acest domeniu, Intel va avea un mod FMA care poate fi utilizat atunci când sistemul nu dispune de unități XMX pentru a accelera sarcinile AI. Strategia Intel pare să fie mai deschisă în ceea ce privește compatibilitatea, dar avantajul este încă la Nvidia, având o bază uriașă de utilizatori RTX.
Care tehnologie va avea în cele din urmă mai mult succes? Timpul ne va spune, dar pe baza informațiilor curente, ambele, mai ales dacă intel va lansa ceva mai serios bazat pe Arc.
Intel promite să lanseze o versiune alfa a SDK-ului în cursul acestui an, urmată de o versiune beta și de o versiune publică mai târziu.