Hvorfor står vi overfor slutten av grafikkdriverproblemet?

Det største problemet som finnes i dataspillverdenen er spørsmålet om grafikkort drivere . Dette er fordi i motsetning til konsoller hvor det er optimalisert for en spesifikk konfigurasjon på datamaskiner, hvor det er tusenvis av forskjellige konfigurasjoner. Imidlertid bruker RISC-V-prosessorer i GPUer kan avslutte dette problemet for alltid. Hvorfor? Hvis du er interessert, fortsett å lese, vi vil forklare det for deg

Vi har lansert i flere år hvor grafikkort som lovet mye har vært mindre enn lovet på grunn av dårlige grafikkdrivere. Imidlertid kan dette problemet komme til en slutt med implementeringen av visse maskinvareendringer som vi skal forklare i detalj, og som kan være slutten på en av de største plagene som er påført når du spiller på en datamaskin.

slutten av grafikkdriverproblemet

Det evige problemet med grafikkdrivere på PC

GPUene i grafikkort har et mye høyere antall kjerner enn det vi ser i sentralprosessoren, så de er mye enklere og dette gjør kontrollenheten deres mye enklere. Siden det er et tilbehørselement, har sjåføren ansvaret for å administrere ressursene og lage listene over kommandoer som grafikkortet skal utføre.

Elden Ring PC-spill

Ideelt sett bør koden som genererer grafikken optimaliseres så mye som mulig med sikte på å okkupere størst mulig mengde ressurser til enhver tid på en mest mulig effektiv måte. Det vil si uten å overbelaste hver av ressursene og uten å la noen være ubrukte. Dette krever imidlertid optimalisering ikke bare for hver arkitektur, men også for alle grafikkortkonfigurasjoner. Tatt i betraktning antall tilgjengelige modeller, kan du allerede forstå at det er et verk av Sisyphus for utviklere.

Vel, for noen dager siden fortalte vi deg allerede hvordan NVIDIA planlegger å bruke AI i driverne sine, men de kan ikke bruke noen funksjon som ikke tidligere er implementert når det gjelder maskinvare. Det er her den andre delen av historien vår kommer inn, som har å gjøre med bruken av RISC-V på GPUer.

RISC-V har vært i bruk lenge på GPUer

Vi må anta at RISC-V er en helt gratis ISA og derfor i motsetning til ARM, det betyr ikke bare at de som bruker det ikke trenger å betale royalty, men begrenser heller ikke hvordan det skal brukes. Dette betyr at spesifikke prosessorer kan brukes, som ikke har alle instruksjonene til en konvensjonell prosessor til tross for at de fungerer på samme måte, og dette gjør at de kan brukes i spesifikke scenarier.

RISC-V

Og det er at i tilfellet med NVIDIA finner vi at merket har RISC-V-prosessorer innenfor sine grafikkort. Siden når? Vel, fra GTX 1000 med Pascal-arkitektur og utover. Og på spesifikke elementer, som nå:

  • Selve GPU-kommandoprosessoren har vært RISC-V i minst 5 år.
  • Det andre nivået cache-administrasjonsprosesser utføres av en eller flere prosessorer av denne typen.
  • Hvis vi snakker om styringsmekanismer for forbruk, spenning og klokkehastighet, bæres de ikke bare av temperatursensorer, men også av kjerner av denne typen.

Dette er derfor spesifikke oppgaver der denne typen kjerne brukes. Så bruken av RISC V på GPUer er ikke ny.

Og hvordan kan RISC-V på GPUer overvinne driverproblemet?

Vel, med det enkle faktum å laste ned arbeidet til CPU-en for å måtte administrere de forskjellige prosessene som må utføres parallelt på GPU. Spesifikt ville det være en utvikling av den nåværende kommandoprosessoren som ville bruke inferensalgoritmer gjennom dyp læring, en av disiplinene for kunstig intelligens, og derfor ville den bruke evolusjonære algoritmer, med sikte på å kunne administrere GPUen bedre. ressurser.

NVIDIA RISC-V GPU

I alle fall, å overlate arbeidet til sjåførene til en RISC-V-prosessor for GPU-en plassert i kommandoprosessoren til den samme har følgende fordeler:

  • Det avlaster CPU-en for å måtte håndtere hendelsene selv, noe som fører til at tiden i hver ramme reduseres og dermed øker FPS-hastigheten.
  • De har ansvaret for å forhåndskompilere shaders, et element som de også laster av til sentralprosessoren.
  • Det gjør det mye enklere å legge til nye funksjoner, samt mer effektiv feilhåndtering.
  • For programmerere gir det dem en mer nøyaktig feilsøkingsevne for programmer som kjøres på grafikkbrikkekjernene.
  • Det letter kommunikasjonen med tilbehørsblokkene til GPU-en uten at prosessoren trenger å handle. Det vil si at det gjør bruken av videokodeker, bruken av DMA-enheten eller skjermkontrolleren mer effektiv. I spesifikke termer lar det deg redusere de forskjellige ventetidene mer effektivt.
  • De kan lære hvordan hvert spill fungerer på PC-en vår og administrere de grafiske innstillingene automatisk.

Så, og avslutningsvis, kommer alt ned til bruken av AI gjennom RISC-V-kjerner på GPU.

Det store vanlige problemet med Intel, NVIDIA og AMD

Problemet med grafikkort er den store mengden ressurser i personell og kapital bare for å lage kontrollere eller grafikkdrivere. Nettopp hvis disse ikke ordner seg til slutt, ender dette opp med å påvirke ytelsen til maskinvaren og med det prisen, siden du ikke kan selge et system med mindre ytelse til en lik eller høyere pris. Det vil si at en dårlig sjåfør kan få deg til å tape mye penger.

precio-gpus

Denne typen optimalisering krever imidlertid endringer i maskinvaren og derfor opprettelse av nye brikker. Alt tyder på at dette er den store fordelen som NVIDIA har fremfor sin største rival, og at de kommer til å utnytte den til fulle for å vinne i ytelsestestene og ytterligere konsolidere sin enorme markedsandel. På den annen side er det demonstrasjonen av konsekvensene ved AMD av å ha ignorert markedet for kunstig intelligens og å ha undervurdert bruken av det i spillgrafikkmaskinvare.

Heldigvis er RISC-V en helt gratis ISA å bruke, og slike løsninger vil ikke bli utført utelukkende av NVIDIA. I tillegg implementerer andre selskaper som Imagination Technologies dem allerede i sine mobile GPU-er, der problemene ligner dem på PC.