Kommer et nyt grafikkort mangel på grund af AI?

Efterspørgslen efter AI-hardware er vokset eksponentielt i det seneste år, især for GPU'er. Dette får os til at spekulere på, om vi vil se en mangel på grafikkort igen som minedrift for ikke længe siden. At gøre tingene værre, NVIDIA har præsenteret produkter til at forsyne dette marked i sin GTC, hvilket får mange til at spekulere på, om mareridtet vil vende tilbage.

Som hver marts afholder NVIDIA sin egen konference, GTC, med fokus på verden af ​​kunstig intelligens og supercomputing. I den præsenterer de ikke noget til PC, men produkter og tjenester i form af software og hardware relateret til AI og til forskellige industrier. Imidlertid har boomet i applikationer som ChatGPT, Stable Diffusion og mange flere baseret på store sprogmodeller og generering af billeder fra tekst fået efterspørgslen til at vokse i denne henseende. Og selvfølgelig skal de af Jen Hsen Huang udnytte det på en eller anden måde. Selvom det, der betyder noget for os, er, hvordan det påvirker os og se, om vi kommer til at opleve mangel på grafikkort igen.

Opsummer enhver tekst med AI i Google Docs

NVIDIA hopper med på ChatGPT-vognen og bringer sit dobbelte grafikkort frem i årevis

Vi fortalte dig for nylig, at NVIDIA ville forsøge at udnytte det nye AI-boom med to elementer, der er indlysende. På den ene side salg af grafikkort, så store virksomheder og administrationer kan sætte deres egne servere op til at levere eller bruge tjenester baseret på Deep eller Machine Learning. På den anden side skabelsen af ​​servere i skyen på sin side, så små og mellemstore virksomheder kan få adgang til disse ressourcer.

Nå, henholdsvis, og i det første tilfælde har de præsenteret deres NVIDIA H100 NVL Dual , som består af to grafikkort forbundet via NVLink mellem dem. De er ikke baseret på samme arkitektur som RTX 40, men på den, der er designet til supercomputing-markedet, H100. Dens særlige karakter er, at mængden af ​​VRAM de har i alt er 188 GB af typen HBM3, hvilket betyder at systemet reserverer 2 GB pr. GPU til bestemte opgaver. Dit målmarked? Den ene af de store sprogmodeller i ChatGPT-stilen.

Hvad angår det andet produkt, er det NVIDIA DGX Cloud , en supercomputing cloud-tjeneste, der giver adgang til NVIDIA-servere for at kunne bruge kraften i sine GPU'er til AI-centrerede applikationer. Disse servere vil være baseret på microsoft Azure og Google Cloud. Tanken er, at enhver lille og mellemstor virksomhed kan leje sådanne servere.

Tarjetas Gráficas NVIDIA H100 NVL Dual

Vil der være mangel på gaming grafikkort?

Som du kan se, flytter NVIDIA ikke sin aktie RTX 40 mod AI-markedet, men bruger i stedet sin anden chip, H100. Vi skal selvfølgelig tage udgangspunkt i, at både den nyeste GeForce til pc'er og denne kraftfulde chip kommer fra de samme støberier, der bruger TSMC's N4-node. Derfor vil efterspørgslen efter én ende med at påvirke efterspørgslen efter en anden i teorien, men vi skal tage højde for en række vigtige punkter:

  • Marginerne på H100-grafikkortene er betydeligt højere, selv end et RTX 40, hvad det koster for et af NVIDIAs næste generations HPC-grafikkort er næsten 10 gange, hvad du betaler for et RTX 4090.
  • Trods stigningen i efterspørgslen bliver den ikke så stor, som den var for minedrift. Så gaming grafikkort er sikre.

Vi skal dog tage højde for, at H100-chippen er ret stor, hvilket betyder, at der kommer få enheder ud pr. wafer, og fejlraten er ret høj. De har i hvert fald været enorm efterspurgt af store multinationale selskaber, der kan købe denne type hardware. Tænk bare på, at der til ChatGPT 3 var nødvendigt med 10,000 grafikkort til AI-træning, vi ved ikke, hvor mange der bliver til den nye version, men flere gange mere sikre end ja. Og de vil ikke være de eneste, der efterspørger den nævnte hardware. Under alle omstændigheder vil vi se, om TSMC og NVIDIA har kapaciteten til at understøtte denne efterspørgsel uden at påvirke deres ældre marked, selvom det er mindre lukrativt i dag.