Hvorfor står vi over for slutningen af ​​grafikdriverproblemet?

Det største problem, der findes i computerspilverdenen, er spørgsmålet om grafikkort drivere . Dette skyldes i modsætning til konsoller, hvor det er optimeret til en specifik konfiguration på computere, hvor der er tusindvis af forskellige konfigurationer. Dog bruger RISC-V-processorer i GPU'er kunne afslutte dette problem for altid. Hvorfor? Hvis du er interesseret, så fortsæt med at læse, vi forklarer det for dig

Vi har lanceret i flere år, hvor grafikkort, der lovede meget, har været mindre end lovet på grund af dårlige grafikdrivere. Dette problem kan dog komme til en ende med implementeringen af ​​visse hardwareændringer, som vi vil forklare i detaljer, og som kan være enden på en af ​​de største plager, man har lidt, når man spiller på en computer.

slutningen af ​​grafikdriverproblemet

Det evige problem med grafikdrivere på pc

GPU'erne i grafikkort har et meget højere antal kerner end hvad vi ser i den centrale processor, så de er meget enklere og det gør deres kontrolenhed meget nemmere. Da det er et tilbehørselement, overlades driveren til at styre ressourcerne og oprette de lister over kommandoer, som grafikkortet vil udføre.

Elden Ring PC-spil

Ideelt set bør koden, der genererer grafikken, optimeres så meget som muligt med det formål at optage den størst mulige mængde ressourcer til enhver tid på den mest effektive måde. Det vil sige uden at overbelaste hver af ressourcerne og uden at efterlade nogle ubrugte. Dette kræver dog optimering ikke kun for hver arkitektur, men også for enhver grafikkortkonfiguration. Under hensyntagen til antallet af tilgængelige modeller, kan du allerede forstå, at det er et Sisyfos-værk for udviklere.

Nå, for et par dage siden fortalte vi dig allerede hvordan NVIDIA planlægger at bruge AI i sine drivere, men de kan ikke bruge nogen funktion, der ikke tidligere er implementeret med hensyn til hardware. Det er her den anden del af vores historie kommer ind, som har at gøre med brugen af ​​RISC-V på GPU'er.

RISC-V har været i brug i lang tid på GPU'er

Vi må antage, at RISC-V er en fuldstændig gratis ISA og derfor i modsætning til ARM, det betyder ikke kun, at de, der bruger det, ikke skal betale en royalty, men det begrænser heller ikke, hvordan det skal bruges. Det betyder, at der kan bruges processorer til specifikke formål, som ikke har alle instruktionerne fra en konventionel CPU på trods af at de fungerer på samme måde, og dette gør det muligt for dem at blive brugt i specifikke scenarier.

RISC-V

Og det er, at i tilfældet med NVIDIA finder vi, at mærket har RISC-V-processorer i sine grafikkort. Siden hvornår? Nå, fra GTX 1000 med Pascal-arkitektur og frem. Og om specifikke elementer, som nu:

  • Selve GPU-kommandoprocessoren har været RISC-V i mindst 5 år.
  • Cachehåndteringsprocesserne på andet niveau udføres af en eller flere processorer af denne type.
  • Hvis vi taler om styringsmekanismer for forbrug, spænding og clockhastighed, bæres de ikke kun af temperatursensorer, men også af kerner af denne type.

Det er derfor specifikke opgaver, hvor denne type kerne bruges. Så brugen af ​​RISC V på GPU'er er ikke ny.

Og hvordan kan RISC-V på GPU'er overvinde driverproblemet?

Nå, med det simple faktum at downloade arbejdet til CPU'en med at skulle styre de forskellige processer, der skal udføres parallelt på GPU. Specifikt ville det være en udvikling af den nuværende kommandoprocessor, der ville bruge inferensalgoritmer gennem deep learning, en af ​​disciplinerne inden for kunstig intelligens, og derfor ville det være at bruge evolutionære algoritmer, med det formål at være i stand til bedre at styre GPU'en ressourcer.

NVIDIA RISC-V GPU

Under alle omstændigheder har det følgende fordele at overlade drivernes arbejde til en RISC-V-processor til GPU'en placeret i kommandoprocessoren:

  • Det aflaster CPU'en for selv at skulle håndtere begivenhederne, hvilket får dens tid i hver frame til at falde og dermed øge FPS-hastigheden.
  • De er ansvarlige for prækompilering af shaders, et element af hvilket de også overfører til den centrale processor.
  • Det gør det meget nemmere at tilføje nye funktioner, samt mere effektiv fejlhåndtering.
  • For programmører giver det dem en mere nøjagtig fejlfindingsevne for programmer, der udføres på grafikchipkerne.
  • Det letter kommunikationen med tilbehørsblokkene på GPU'en, uden at processoren behøver at handle. Det vil sige, at det gør brugen af ​​video-codecs, brugen af ​​DMA-enheden eller skærmcontrolleren mere effektiv. Specifikt giver det dig mulighed for at reducere de forskellige latenser mere effektivt.
  • De kan lære, hvordan hvert spil fungerer på vores pc og administrere de grafiske indstillinger automatisk.

Så og afslutningsvis kommer det hele ned på brugen af ​​AI gennem RISC-V-kerner på GPU'en.

Det store fælles problem med Intel, NVIDIA og AMD

Problemet med grafikkort er den store mængde ressourcer i personale og kapital kun til oprettelse af controllere eller grafikdrivere. Netop hvis disse ikke lykkes i sidste ende, ender det med at påvirke hardwarens ydeevne og dermed prisen, da man ikke kan sælge et system med mindre ydeevne til en lige høj eller højere pris. Det vil sige, at en dårlig chauffør kan få dig til at tabe mange penge.

præcio-gpus

Denne type optimering kræver dog ændringer i hardwaren og derfor skabelsen af ​​nye chips. Alt tyder på, at dette er den store fordel, som NVIDIA har i forhold til sin største rival, og at de vil udnytte det fuldt ud for at vinde i ydeevnetestene og yderligere konsolidere deres enorme markedsandel. På den anden side er det demonstrationen af ​​konsekvenserne ved AMD for at have ignoreret markedet for kunstig intelligens og at have undervurderet dets anvendelse i gaming-grafikhardware.

Heldigvis er RISC-V en helt gratis ISA at bruge, og sådanne løsninger vil ikke blive udført udelukkende af NVIDIA. Hvad mere er, er andre virksomheder som Imagination Technologies allerede ved at implementere dem i deres mobile GPU'er, hvor problemerne ligner dem på pc'er.