NVIDIA vil efterlade grafikkort til spil, og det er ingen joke

I øjeblikket er grafikkort opdelt i to typer, dem der er designet til spil og dem der bruges til andre applikationer af højere værdi. Det vil sige til videnskabelige og militære simuleringer blandt mange andre ting. Men der er en enhed, der har været med os siden det første succesfulde 3D-kort, rasterenheden, som kunne forsvinde og med det organisationen eller arkitekturen af ​​fremtidige GPU'er. Konsekvenserne? Slutningen af ​​adskillelsen mellem modeller kun til spil og dem, der bruges i andre områder.

Real-time 3D-spil i dag er 99% af spillene, men på computere ankom de takket være den populære Voodoo Graphics i sin tid og det faktum at have en chip, der var ansvarlig for en fælles funktion. Vi taler om rasterenheden, som i dag findes i alle grafikchips, men som vil forsvinde med tiden. Hvilke konsekvenser vil dette få for fremtidens hardware?

NVIDIA vil efterlade grafikkort til spil

GPU'er ændrer sig

GPU'er er specialiserede grafikprocessorer, med en vis evne til at arbejde generelt. Det skyldes, at deres kerne for længst er ophørt med at være til specialiserede opgaver, der skal bruges til generelle opgaver. Derfor bruger mange af verdens store supercomputere dem i dag til videnskabelige og militære simuleringer i stor skala, såvel som andre blomstrende applikationer såsom kunstig intelligens.

Der er dog stadig en række enheder, der udfører specifikke opgaver, men som er nødvendige for at kunne generere grafikken. Deres opgave er ikke kun at befri hovedkernerne fra dem, men at arbejde parallelt. Dens største fordel er, at ved at have en fast eller specifik opgave at udføre, kræver de færre transistorer at bygge og derfor er billigere og bruger mindre end at få hovedkernen til at tage sig af opgaven.

Det kan dog ske, at et specialiseret stykke hardware bliver forældet, enten fordi det ikke følger med andre elementers ydeevne, eller fordi det fungerer på en mindre end ideel måde. Nå, vi opdager, at der i grafikkortenes hovedchip dukker en bestemt type enhed op, og en anden type forsvinder.

Grafik NVIDIA Tope Gama Sin ventiladores ni disipador

Farvel til rasterenheden

Hvis du ser på specifikationerne for et hvilket som helst grafikkort, vil du se, at et, der er mindre og mindre vigtigt, er det, der taler om "trekanter pr. sekund". Mange tror, ​​at det er mængden af ​​disse, der bliver sat på skærmen, og andre vil tro, at det er mængden, der beregnes. Begge er falske på grund af det faktum, at dette afhænger af den applikation, vi kører. Desuden er det en fast sats, og hvis vi bemærker, er det altid clockhastigheden for antallet af rasterenheder. I hvert fald i dag.

Disse enheder gjorde fremskridt i ydeevne, fra at kræve flere ur-cyklusser for at rastere en trekant, til at gøre det med den nuværende hastighed, men de har ikke udviklet sig i ti år. Hans arbejde? Projekter 3D-verdenen beregnet i hjørner til en 2D-overflade, der består af pixels, skærmen, som farven senere vil blive beregnet til. Derfor er det en væsentlig enhed, da når vi laver en 3D-scene, ender hver og en af ​​trekanterne med at blive til pixels; nævnte enhed kunne dog snart sige farvel.

Grunden? Dine begrænsninger

Problemet med rasterenhederne er, at de ikke er designet til at arbejde med meget små trekanter, altså dem, der er rasteriseret i et par pixels. Ydermere, når et objekt kun består af nogle få pixels, er det, rasterizeren gør, at konkludere, at det er for langt væk og markere det til sletning. Selvfølgelig, før du kontrollerer dens afstand til kameraet med dybdebufferen for at eliminere det fra scenen, og at det ikke skal beregnes. Dette gøres også med objekter bagved en større, hvilket giver problemer, når den forreste genstand i en eller anden grad er gennemsigtig. Hvilket giver problemer, men det er en helt anden sag.

Effektiv Rasterizador

Problemet? Vi bevæger os ind i en verden, hvor geometri bliver brugt på ekstreme niveauer til detaljering af karakterer, objekter og indstillinger. Hvilket betyder trekantshastigheder, som nuværende rasterenheder ikke kan understøtte. Hvilket er en flaskehals, men problemet er, at de ikke kan fungere godt med små trekanter. I den forstand, at hvis vi har 100 trekanter på 50 pixels, oversættes dette ikke til 200 af 25 pixels. Derfor falder dens effektivitet, efterhånden som polygonerne, som den arbejder med, er mindre.

Hvad er løsningen?

Så meget, at folk hos Epic Games i lyset af skabelsen af ​​Unreal Engine 5 har været nødt til at skabe rasterenheder ved at bruge computerskyggere til det. Det vil sige GPU kerner gør arbejdet som en specialiseret funktionsenhed meget bedre. Hvilket bringer dens fremtid i fare. I øjeblikket er det ikke udelukket, men det har allerede Damokles-sværdet på sig, såvel som tesseller- eller overfladeinddelingsenheden.

Detalle Geometry Engine UE5 I et interview udført i maj 2020 med Brian Karis , udtalte grafikprogrammøren, at de har udviklet to slags software trekant-rasterizere til Unreal Engine 5. Dette forudsætter, at Epics nye motor, som vil blive brugt af snesevis af spil i industrien, allerede har mulighed for at undvære rasterenheden. Det vil sige, udskift en af ​​GPU-kernerne for at erstatte hver af disse enheder og få mere ydeevne med den.

Langt de fleste trekanter er rasteriseret af software ved hjælp af højt specialiserede computer shaders, som er designet til at udnytte det, vi kan drage fordel af. Som et resultat har vi været i stand til at efterlade hardware-rasterizere i støvet på denne specifikke opgave. Softwarerasterisering er et vigtigt element i Nanite, der giver os mulighed for at gøre, hvad det gør. Vi kan ikke slå hardware-rasterizere i alle tilfælde, så vi bruger dem, når vi fastslår, at det er den hurtigste vej.

Hvid og på flaske, som du kan læse. De vil forsvinde på grund af det faktum, at de er transistorer NVIDIA, Intel , AMD kan udnytte til andre ting, der bliver vigtigere i fremtiden.

Hvorfor vil organisationen af ​​grafikkort ændre sig?

Hvis du ser på diagrammerne for enhver GPU, vil du se, at kernerne er arrangeret i blokke omkring en rasterizer. Det skyldes, at de sender begge data til disse enheder og også modtager dem, afhængigt af hvilken fase af 3D-pipelinen vi taler om. Så at fjerne det er en omorganisering. I øjeblikket er den ideelle størrelse for 100 % effektivitet af rasterenheder 48 pixels for NVIDIA og 64 for AMD. Dette begrænser også antallet af kerner i modeller designet til spil. Hvilket, i tilfældet med mærket i grønt, kan ses ved at sammenligne dets chips for højtydende databehandling og spil.

H100 AD102 GPC sammenligninger

Som det kan ses, har H100 GPC ikke en Raster Engine, hvilket gør det muligt for den ikke at have en så fast organisation og derfor begrænset. Denne ændring vil gøre det muligt for NVIDIA, og også AMD, ikke at skulle designe to forskellige designs til HPC og Gaming, men i stedet være i stand til at trække fra en universel basismodel med hensyn til design. hvorfra du kan iterere. I dag, uanset om vi taler om en central processor eller en grafikprocessor, oplever vi, at interkommunikationen er mellem 2/3 og 3/4 af den samlede chip, og det faktum at skulle arbejde på to forskellige chips er skræmmende.

Lad os ikke glemme, at hver ny node er flere transistorer, dette er flere dele og flere ingeniører at ansætte. Det vil nå det punkt, hvor de samme grafikkort, der tilbydes til videnskabeligt arbejde, vil være high-end til spil, på grund af det faktum, at det ikke vil være rentabelt at lave to forskellige modeller, og elimineringen af ​​rasterenheden vil være nøglen i hele denne udviklingsproces. forening.