NVIDIA skapar en AI som gör drivrutinerna för sina grafikkort

Än idag vet vi inte om NVIDIA är ett företag som gör artificiell intelligens hårdvara med möjlighet att visa grafik eller vice versa. Och det är att denna datordisciplin har blivit populär de senaste åren och har vuxit exponentiellt. Allt detta tack vare implementeringen av enheter som kan utföra matrisberäkningar med få klockcykler. Nästa förekomst av de av Jen Hsen Huang? Skapa grafikdrivrutiner med AI. Står vi inför ett problem på gång eller den definitiva lösningen på ett vanligt problem?

Drivrutiner eller grafikkontroller är ett av de största problemen för grafikkortstillverkare och speciellt för GPU designers. En som är av dålig kvalitet kan innebära mycket sämre resultat i benchmarks och spel, vilket är ödesdigert för ekonomin. När allt kommer omkring kan ingen sälja en hårdvara till ett pris som är högre än dess prestanda. Anledningen? Du säljer mindre värde för ett högre pris.

NVIDIA skapar en AI som gör drivrutinerna för sina grafikkort

Grafikdrivrutiner och AI?

En av myterna som vi inte slutar läsa är att artificiell intelligens kommer att eliminera många jobb som datorprogrammering, men vad de kommer att göra inom området datorprogram är att eliminera repetitiva och mekaniserade uppgifter. Att vi pratar om grafikdrivrutiner med AI betyder inte att de är ansvariga för att skapa dessa program. Det hänvisar snarare till det faktum att hanteringen av processer och GPU-resurser styrs av ett program av den typen som hanteras av regulatorn.

Inteligencia Artificiellt chip

En GPU består av tiotals kärnor och samtidigt tusentals exekveringstrådar, dock kommer problemet från att deras styrenhet inte är som centralprocessorer. Deras hantering måste utföras från föraren som är ansvarig för att organisera hela processen. Se det som ett enormt paketföretag som måste tilldela de olika försändelserna till sina motsvarande destinationer på ett så effektivt sätt som möjligt.

I alla moderna grafikchips är det avgörande för prestanda att ockupera de olika registren och använda det största antalet kärnor samtidigt. Dålig organisation kan innebära att maximalt antal resurser som möjligt inte används och framtvinga till exempel ökningar av klockhastighet och därmed en ökad konsumtion.

NVIDIA skulle redan använda den i sin RTX 40

Ett av de beteenden som vi har sett i den nya generationen av NVIDIA-grafikkort är hur de beter sig när de hanterar spel som kräver få resurser. Vad RTX 30 och tidigare gjorde var att slå på några kärnor, men när arbetet ackumulerades slutade de med att köra på Boost-hastigheter och slå på fläktarna. Istället bättre drivrutinshantering på deras nya GPU:er. Vad det gör är att dessa titlar använder mer av chipets resurser, men med en lägre klockhastighet och därmed med en mindre påverkan på elräkningen på grund av den prestanda de ger.

NVIDIA-drivrutiner

En av nycklarna kan i alla fall också vara användningen av kompilatorer med AI för att generera bättre binär kod som exekveras av GPU:n på grafikkortet. Många gånger händer det att koden som genereras i kompileringen inte är den mest effektiva och att vissa kombinationer av instruktioner på högnivåspråk inte översätts till de bästa kombinationerna av instruktioner för processorn. Även om detta snarare är något som påverkar alla program.

Sammanfattningsvis har NVIDIAs engagemang för AI gett resultat för spelgrafikkort under en tid och givet AMDs olust hela tiden angående denna fråga och dess förarproblem, är det möjligt att det gröna märket kommer att vända lite längre fram när det gäller prestanda.