Saltul de la SDR la HDR: De ce nu s-a întâmplat?

de la SDR la HDR

Una dintre tehnologiile pe care le vedem cel mai repetat atunci când ne uităm la specificațiile unui monitor este HDR, dar de ceva timp nu mai vedem trecerea de la ceea ce numim SDR la HDR în medii precum jocurile video, ca să nu mai vorbim Nu am văzut niciunul GPU conceput pentru HDR.

Dacă v-ați întrebat vreodată cum este posibil să nu fi văzut saltul definitiv către ecranele HDR lăsând deoparte SDR, continuați să citiți că veți descoperi motivul.

Ce este HDR și ce îl diferențiază de SDR?

HDR vs SDR

HDR este acronimul pentru un interval dinamic ridicat, se bazează pe creșterea cantității de biți pe componentă RGB de la 8 biți la 10 biți sau chiar 12 biți, dar HDR nu se bazează pe creșterea crominanței și, prin urmare, a cantității de culori, ci mai degrabă luminozitatea acestora, permițând o gamă mai mare de luminozitate și contrast pentru fiecare culoare și o reprezentare mai bună a acestora.

Cu toate acestea, în timp ce monitoarele color pe 24 de biți le-au înlocuit rapid pe cele cu definiție mai mică a culorii, nu același lucru este cazul monitoarelor bazate pe HDR, unde putem găsi totuși un număr mare de ele care nu le acceptă. Deci tranziția nu a fost niciodată pe deplin realizată.

Unul dintre motive este că HDR este dificil de promovat pe un ecran care nu acceptă acea gamă de culori, așa că în era marketingului pe internet este dificil să arăți ceva care se bazează pe percepția vizuală a oamenilor și pe care aceștia nu le pot vedea. .

Cromanță și luminanță

Luminancia Crominancia

Fiecare pixel reprezentat pe ecran este stocat anterior într-un buffer de imagine care stochează valorile celor trei componente RGB: roșu, verde și albastru. Dar, particularitatea acestui mod de stocare a informației este că nu numai crominația este stocată, ci și nivelul de luminanță, care este nivelul de culoare sau luminozitatea acelei culori.

În televizoarele vechi în care nu existau culori, imaginile erau reprezentate prin valori de luminanță și când venea culoarea, ambele valori erau separate. Dar în cazul calculelor, deși ecranele tuburilor cu raze catodice au fost utilizate timp de aproape trei decenii, de fapt la nivelul reprezentării interne în tamponul de imagine, ambele au fost reprezentate în același mod.

Pentru o lungă perioadă de timp, reprezentarea maximă în culoare a fost de 24 de biți de culoare, ceea ce oferă 16.7 milioane de combinații diferite, acest tip de ecran se numește ecrane SDR, pentru a le diferenția de ecrane HDR, care acceptă o cantitate mai mare de informații pe pixel, cu 10 și chiar până la 12 biți pe componentă.

HDR și redare grafică în timp real

SDR vs HDR Gaming

HDR poate fi reprezentat în două moduri diferite:

  • Primul este să adăugați mai mulți biți pe componentă la toți pixelii din bufferul de imagine.
  • Al doilea este să adăugați o componentă nouă.

Ambele soluții au sens atunci când vine vorba de redarea de imagini statice și fișiere video, dar în cazul GPU-urilor utilizate pentru a reda scene 3D în timp real, lucrul care se complică, deoarece acest lucru înseamnă că toate unitățile GPU pe care le manipulează datele pixeli pe de o parte și pe de altă parte cei care transmit aceleași date trebuie să își mărească precizia.

În consecință, acest lucru are nevoie de GPU-uri cu un număr mai mare de tranzistoare și, prin urmare, acest lucru înseamnă GPU-uri cu dimensiuni mai mari sub aceeași putere sau mai puțin puternice dacă se menține dimensiunea. Soluția luată de producători? Al doilea, aceasta are consecința că performanța jocurilor în modul HDR este mai mică decât atunci când acestea sunt redate în SDR.

GPU-urile nu au fost niciodată concepute pentru HDR, ci pentru SDR

Dacă mărim cantitatea de biți de informație pe pixel, în mod logic atunci când deplasăm datele pe parcursul redării, vom constata că lățimea de bandă necesară va fi mult mai mare, ceea ce se poate traduce într-o scădere a performanței dacă între memoria care stochează datele și unitatea care le procesează, nu se mișcă suficient de repede.

Dar. mișcarea informațiilor este costisitoare în cadrul unui procesor, mai ales dacă vorbim despre consumul de energie, acesta fiind unul dintre motivele pentru care niciunul dintre GPU-urile din ultimii ani nu a fost pregătit să funcționeze nativ cu valori pe pixel dincolo de cei 8 biți pe componentă. Datorită faptului că cea mai mare valoare pentru proiectarea noilor procesoare, cea mai mare premisă în performanță pentru o lungă perioadă de timp este puterea pe watt.

Dacă, la fel ca alte tehnologii, GPU-urile ar fi fost proiectate pentru HDR, atunci tehnologia ar fi fost complet standardizată și acum toate componentele hardware și software ale PC-ului ar fi proiectate pentru HDR, ce este mai mult, ar fi utilizate de toată lumea.