Uw toekomstige grafische kaart zal uw elektriciteitsrekening verhogen

Een van de dingen die onze lezers het meest zorgen baart, is het nieuws over de toename van het energieverbruik in de hardware. Zeker met het nieuws over de mogelijke stijging van de elektriciteitsrekening voor grafische kaarten. En de reden hiervoor is dat veel modellen de nieuwe 12+4-pins connector, bekend als ATX12VO, zullen moeten gebruiken met de mogelijkheid om de grafische kaart van stroom te voorzien met 600 W vermogen. Moeten we ons echt zorgen maken over? de stijging van de elektriciteitsrekening voor onze grafische kaart , of is het overdreven?

Een van de hardware-ontwerpbeperkingen waarmee hardware-ontwerpers worden geconfronteerd, is het stroomverbruik. Er wordt altijd naar gestreefd om binnen een bepaald budget een bepaalde prestatie te kunnen leveren. Het probleem? Gebruikers zoeken altijd naar de grafische kaart die ons het hoogste aantal frames geeft in onze favoriete games, evenals een betere grafische kwaliteit. Wat veroorzaakt dat van tijd tot tijd de hoeveelheid verbruikte energie moet stijgen.

Uw toekomstige grafische kaart zal uw elektriciteitsrekening verhogen

Waarom maakt uw grafische kaart uw elektriciteitsrekening duurder?

Van alle componenten in uw computer, degene die de grootste impact heeft op uw elektriciteitsrekening is de grafische kaart . Het is niet verrassend dat, terwijl in het geval van een centrale processor die ongeveer 200 W verbruikt, dit als overdreven wordt beschouwd, dit in het geval van de grafische kaart als normaal wordt beschouwd. We hebben zelfs modellen die bijna 400 W zijn en binnenkort zullen we het gebruik van de ATX12VO of 12+4-pins connector hebben die het verbruik kan verdubbelen en daarom onze grafische kaart twee keer zo duur maakt.

De centrale GPU zal het stroomverbruik verhogen

Het belangrijkste onderdeel van elke grafische kaart is de centrale GPU, die in vergelijking met een centrale processor tegenwoordig uit tientallen kernen bestaat en er zijn zelfs gevallen die al in de honderden zijn. In ieder geval moeten we uitgaan van het idee dat het genereren van afbeeldingen een taak is die veel parallellisme vereist. Als we bijvoorbeeld een afbeelding in Full HD moeten genereren, hebben we 2 miljoen pixels tegelijkertijd te verwerken en als we het hebben over een 4K-resolutie dan loopt het op tot 8 miljoen.

verbruiksenergie feitelijk proces van grafische weergave

Omdat elke pixel of elke andere grafische primitief voor het samenstellen van de scène onafhankelijk is van de rest, wordt een ontwerp met een groot aantal kernen belangrijk. Uiteraard met een vast budget qua energieverbruik. Dus van de ene generatie op de andere, ingenieurs bij Intel, AMD en NVIDIA moeten hun hersens kraken om meer cores onder hetzelfde budget te passen en hogere kloksnelheden te bereiken. Dit was mogelijk dankzij de effecten van het adopteren van een nieuw productieknooppunt, maar dit is de beperkende factor geworden en als u bepaalde prestatieniveaus wilt bereiken, is het noodzakelijk om het verbruik van grafische kaarten te verhogen.

Om het veel beter te begrijpen, denk aan een buurt met huizen die van tijd tot tijd worden gerenoveerd. Waarin beetje bij beetje het aantal huizen niet alleen toeneemt, maar onder dezelfde elektriciteitscentrale. Er komt een moment dat het nodig zal zijn om het te vernieuwen om ze allemaal van elektriciteit te voorzien.

VRAM speelt ook een belangrijke rol

Naast de grafische chip hebben we een reeks kleinere chips die zijn aangesloten op de GPU en die dienen als geheugen om gegevens en instructies op te slaan. Dit type geheugen verschilt van degene die we als centraal geheugen gebruiken RAM in die zin dat ze meer belang hechten aan de hoeveelheid gegevens die ze per seconde kunnen verzenden dan aan de toegangstijd tot de gegevens. Welnu, dit is een van de problemen met betrekking tot het verbruik en dat zal ons ertoe brengen grote cachegeheugens in de centrale grafische chip te gebruiken om de energiekosten van gegevenstoegang te verlagen.

NVIDIA GPU VRAM-weergave

Het probleem is dat de benodigde hoeveelheden informatie die de grafische kaart moet verwerken zo groot zijn dat het onmogelijk is om zo'n hoeveelheid geheugen in de chip te plaatsen. We hebben dus nog steeds extern geheugen nodig. Hoewel het doel in de toekomst is om de caches van het laatste niveau te vergroten tot het punt waarop bijna 100% van de instructies een verbruik hebben van minder dan 2 picoJoules per verzonden bit. Wat verbruiken de VRAM-geheugens? Welnu, momenteel 7 picoJoules per bit verzonden, maar in de toekomst zou het naar 10 kunnen gaan.

Rekening houdend met het feit dat het energieverbruik, gemeten in watt, het aantal Joules per seconde is, is het probleem heel duidelijk. Bovendien, naarmate de grafische complexiteit in games toeneemt en daarmee het aantal cores, neemt ook de benodigde bandbreedte toe.

Uw elektriciteitsrekening zal niet zo veel stijgen als bij uw toekomstige grafische kaart

Als u zich zorgen maakt over de stijgende elektriciteitsrekening van uw grafische kaart, laat ons u geruststellen. Alleen de topmodellen die zijn ontworpen om games op 4K te spelen met Ray Tracing geactiveerd of met framesnelheden in de honderden, zullen meer verbruiken dan de huidige grafische kaarten en zullen daarom de nieuwe connector van 12+4 gebruiken. pinnen. De rest van het bereik blijft binnen het stroomverbruik, dat varieert van 75 W tot 375 W.

Dus als je scherm een ​​resolutie heeft van 1080p en zelfs 1440p en je wilt games spelen met 60 FPS, dan hoef je je geen zorgen te maken over het toenemende verbruik van je grafische kaart. U hoeft er namelijk geen te kopen die 450 W of meer verbruikt. Het zijn eerder de meest enthousiaste, degenen die tegen elke prijs maximale prestaties willen, die zich het meest zorgen zullen maken over stijgende elektriciteitsrekeningen.