Wie NVIDIA den Verbrauch seiner Grafikkarten reduzieren wird

Die neuesten Gerüchte deuten darauf hin, dass die nächsten Generationen von Grafikkarten in Größe und Verbrauch zunehmen werden. Dies ist ein Problem, für das anscheinend eine ziemlich geniale Lösung gefunden wurde. NVIDIA hätte sich entwickelt PräfixRL , ein System, das es ermöglicht, die Schaltungen zu reduzieren und folglich die Grafikkarten haben einen geringeren Verbrauch .

Es wird gemunkelt, dass die NVIDIA RTX 40-Serie in den leistungsstärksten Modellen fast 600 W verbrauchen könnte. Wir sprechen von übermäßigem Verbrauch, obwohl die Größe der Transistoren reduziert ist. Dieses Problem ist bei Herstellern von Grafik (und Prozessoren) bekannt und es wird nach Lösungen gesucht.

Wie NVIDIA den Verbrauch seiner Grafikkarten reduzieren wird

NVIDIA wird seine zukünftigen Grafikkarten effizienter machen

Entwerfen der GPU Schaltung einer Grafikkarte ist gar nicht so einfach. Das Ziel ist immer das Design verbessern um die Leistung zu erhöhen, aber gleichzeitig das Design so klein wie möglich zu machen. Die Verringerung der Größe der Schaltung bedeutet, dass sie schneller und billiger herzustellen ist.

Um Ingenieuren zu helfen, hat NVIDIA eine entwickelt KI-Modell namens PrefixRL. Dieses System wird als alternative Lösung zu herkömmlichen Tools für das Design integrierter Schaltungen präsentiert.

Derzeit EDA (Electronic Design Automation) wird verwendet , das unter anderem von Anbietern wie Cadence, Synopsys oder Siemens angeboten wird. Jeder Anbieter verwendet ein anderes KI-System für die Siliziumplatzierung und das Routing. PräfixRL scheint ein zu sein viel leistungsfähigere Lösung was eine höhere Integration ermöglicht.

Die Idee ist, die gleichen Funktionen wie EDA-Systeme zu erhalten, jedoch mit einer kleineren Die-Größe. Laut NVIDIA ist die Trichter H100 GPUs nutzen 13,000 Instanzen von arithmetische Schaltungen, entworfen von PrefixRL. Das auf PrefixRL basierende Design wäre 25 % kleiner als das von EDA entworfene. Immer mit gleicher oder besserer Latenz.

Das System ist ziemlich komplex und erfordert eine große Menge an Hardware, um die Entwicklung durchführen zu können. Das hat man geschätzt 256 Prozessorkerne und etwa 32,000 Stunden werden benötigt um eine 64-Bit-Addiererschaltung zu entwerfen. Offensichtlich ist das Timing umso besser, je höher die Anzahl der Kerne ist.

Wie wirkt es sich auf Gaming-Grafikkarten aus?

Nun, NVIDIA hat diesbezüglich keine Daten angegeben, aber es ist möglich, dass diese Technologie bereits für die verwendet wurde RTX 40-Serie . Gerüchte deuten auf einen hohen Verbrauch hin, obwohl es diesbezüglich keine Beweise gibt. Es ist möglich, dass a hypothetische RTX 4090 verbraucht viel, aber die Mittelklasse und haben von vornherein einen ähnlichen Verbrauch wie aktuelle Grafiken.

Vermutlich wird sich mit der Verbesserung dieser Technologie für das Schaltungsdesign auch der Integrationsgrad verbessern. Langfristig könnte es den Verbrauch senken und die Leistung steigern. Es hilft auch bei der Reduzierung der Herstellungszeiten und damit der Herstellungskosten von Chips für Grafikkarten.

Möglicherweise wartet NVIDIA auf Fachveranstaltungen wie Hot & Chips, um weitere Informationen zu dieser Technologie und ihrer Funktionsweise zu geben. Ohne Zweifel eine sehr interessante Lösung, die die Grafikkarten der Zukunft verbessern kann.