Varför står vi inför slutet på problemet med grafikdrivrutinen?

Det största problemet som finns i datorspelens värld är frågan om grafikkortsdrivrutiner . Detta beror på att till skillnad från konsoler där den är optimerad för en specifik konfiguration på datorer, där det finns tusentals olika konfigurationer. Däremot använder RISC-V-processorer i GPU:er kan avsluta detta problem för alltid. Varför? Om du är intresserad, fortsätt läsa, vi kommer att förklara det för dig

Vi har lanserat i flera år där grafikkort som lovat mycket har blivit mindre än utlovat på grund av dåliga grafikdrivrutiner. Det här problemet kan dock upphöra med implementeringen av vissa hårdvaruförändringar som vi kommer att förklara i detalj och som kan vara slutet på ett av de största gissel som drabbats av när man spelar på en dator.

slutet av problemet med grafikdrivrutinen

Det eviga problemet med grafikdrivrutiner på PC

GPU:erna i grafikkort har ett mycket högre antal kärnor än vad vi ser i centralprocessorn, så de är mycket enklare och detta gör deras styrenhet mycket enklare. Eftersom det är ett tillbehörselement får föraren ansvara för att hantera resurserna och skapa listorna med kommandon som grafikkortet kommer att köra.

Elden Ring PC-spel

Helst bör koden som genererar grafiken optimeras så mycket som möjligt med syftet att uppta största möjliga mängd resurser när som helst på ett så effektivt sätt som möjligt. Det vill säga utan att överbelasta var och en av resurserna och utan att lämna några oanvända. Detta kräver dock optimering inte bara för varje arkitektur, utan även för alla grafikkortskonfigurationer. Med hänsyn till antalet tillgängliga modeller kan du redan förstå att det är ett verk av Sisyphus för utvecklare.

Nåväl, för några dagar sedan berättade vi redan hur NVIDIA planerar att använda AI i sina drivrutiner, men de kan inte använda någon funktion som inte tidigare implementerats vad gäller hårdvara. Det är här den andra delen av vår historia kommer in, som har att göra med användningen av RISC-V på GPU:er.

RISC-V har använts länge på GPU:er

Vi måste anta att RISC-V är en helt gratis ISA och därför till skillnad från ARM, det betyder inte bara att de som använder det inte behöver betala en royalty, utan begränsar inte heller hur man använder det. Detta innebär att processorer för specifika ändamål kan användas, som inte har alla instruktioner från en konventionell CPU trots att de fungerar på samma sätt och detta gör att de kan användas i specifika scenarier.

RISC-V

Och det är att i fallet med NVIDIA finner vi att varumärket har RISC-V-processorer inom sina grafikkort. Sen när? Tja, från GTX 1000 med Pascal-arkitektur och framåt. Och om specifika element, som nu:

  • Själva GPU-kommandoprocessorn har varit RISC-V i minst 5 år.
  • Den andra nivåns cachehanteringsprocesser utförs av en eller flera processorer av denna typ.
  • Om vi ​​talar om hanteringsmekanismer för förbrukning, spänning och klockhastighet, bärs de inte bara av temperatursensorer utan också av denna typ av kärnor.

Detta är därför specifika uppgifter där denna typ av kärna används. Så användningen av RISC V på grafikprocessorer är inte ny.

Och hur kan RISC-V på GPU:er övervinna drivrutinsproblemet?

Tja, med det enkla faktum att ladda ner arbetet till CPU:n att behöva hantera de olika processerna som måste utföras parallellt på GPU. Specifikt skulle det vara en utveckling av den nuvarande kommandoprocessorn som skulle använda slutledningsalgoritmer genom djupinlärning, en av disciplinerna för artificiell intelligens, och därför skulle den använda evolutionära algoritmer, med syftet att bättre kunna hantera GPU:n Resurser.

NVIDIA RISC-V GPU

I vilket fall som helst, att anförtro drivrutinernas arbete till en RISC-V-processor för GPU:n placerad i kommandoprocessorn för densamma har följande fördelar:

  • Det avlastar CPU:n från att behöva hantera händelserna själv, vilket gör att dess tid i varje bildruta minskar och därmed ökar FPS-hastigheten.
  • De ansvarar för att förkompilera shaders, ett element som de också laddar ner till centralprocessorn.
  • Det gör det mycket lättare att lägga till nya funktioner, samt effektivare bugghantering.
  • För programmerare ger det dem en mer exakt felsökningsförmåga för program som körs på grafikkretsens kärnor.
  • Det underlättar kommunikationen med tillbehörsblocken i GPU:n utan att processorn behöver agera. Det vill säga, det gör användningen av videokodekar, användningen av DMA-enheten eller bildskärmskontrollern mer effektiv. I specifika termer låter det dig minska de olika latenserna mer effektivt.
  • De kan lära sig hur varje spel fungerar på vår PC och hantera de grafiska inställningarna automatiskt.

Så, och sammanfattningsvis, handlar allt om användningen av AI genom RISC-V-kärnor på GPU:n.

Det stora vanliga problemet med Intel, NVIDIA och AMD

Problemet med grafikkort är den stora mängden resurser i personal och kapital bara för att skapa kontroller eller grafikdrivrutiner. Just om dessa inte löser sig i slutändan så kommer detta att påverka hårdvarans prestanda och därmed dess pris, eftersom man inte kan sälja ett system med lägre prestanda till ett lika eller högre pris. Det vill säga, en dålig förare kan få dig att förlora mycket pengar.

precio-gpus

Denna typ av optimering kräver dock förändringar i hårdvaran och därför skapandet av nya chips. Allt tyder på att detta är den stora fördelen som NVIDIA har framför sin största rival och att de kommer att utnyttja den till fullo för att vinna i prestandatesterna och ytterligare befästa sin enorma marknadsandel. Å andra sidan är det demonstrationen av konsekvenserna av AMD att ha ignorerat marknaden för artificiell intelligens och att ha underskattat dess tillämpning inom spelgrafikhårdvara.

Lyckligtvis är RISC-V en helt gratis ISA att använda och sådana lösningar kommer inte att utföras enbart av NVIDIA. Dessutom implementerar andra företag som Imagination Technologies dem redan i sina mobila GPU:er, där problemen liknar dem på PC.