Wird NVIDIA Ampere genug VRAM für 4K und 144 Hz?

Obwohl die Erwartung am höchsten ist, die Leistung des neuen zu kennen NVIDIA Grafikkarten mit Ampere-Architektur gibt es einen Faktor, der bei der Diskussion nicht berücksichtigt wird. Die Leistung wird mehr oder weniger stark zunehmen, aber die Daten, die durchgesickert sind, scheinen keine Erhöhung der VRAM-Menge zu bieten. Wird es ausreichen, mit 4K und 144 Hz zu spielen?

Wenn eine Person im Begriff ist, eine High-End- oder Medium-High-End-Grafikkarte zu kaufen, ist einer der zu berücksichtigenden Faktoren genau die Menge an VRAM. Obwohl, wie wir immer sagen, die aktuellen Engines die Texturen mit direkt segmentieren RAM Der Zugriff über ihre eigenen RAMCache-Systeme und das Meer von verschiedenen Systemen, die Hardwareanforderungen für sehr hohe Auflösungen und Hertz steigen allmählich in die Höhe.

Wird NVIDIA Ampere genug VRAM für 4K und 144 Hz

Reichen 11 oder 12 GB VRAM für Ampere aus?

NVIDIA-Ampere

Abgesehen von TITANs aus offensichtlichen Gründen stagniert der Markt seit 11 für die High-End-NVIDIA bei 2017 GB. Das Problem ist, dass es eine Kasuistik gibt, in der fast kein Spiel diese Menge verbraucht, oder genauer gesagt, praktisch kein Spiel kann so viele Texturen in seinen VRAM laden.

Dies ist logischerweise kein Zufall und beruht auf dem, was oben in zwei Absätzen besprochen wurde, da die Entwickler es vorziehen, beim Exportieren von Texturen zu kurz zu kommen und sie in diesem Speicher bereit zu lassen, sodass sie sich mit Blick auf den System-RAM entscheiden zur Nachbearbeitung und Wiedergabe von Szenen.

Ray Tracing und DLSS 2.0 Dies scheint der große Anreiz für uns zu sein, die erforderliche Menge in X Jahren zu überdenken, insbesondere die Tatsache, dass 4K-Monitore mit 144 Hz allmählich an Markt gewinnen und damit die Preise sinken. Die naheliegendste Frage ist also, ob wir auf absehbare Zeit 12 oder 16 GB benötigen.

Konsolen könnten den Weg weisen oder vielleicht auch nicht?

APU de una Xbox Series X.

Obwohl sowohl SONY als auch Microsoft das 16 GB GDDR6-VRAM Es ist nicht wirklich klar, wie der erstere diesen einheitlichen Speicher verwenden wird, während der letztere in zwei Abschnitten funktioniert: 10 GB und 8 GB.

Dies würde uns ein Szenario hinterlassen, das dem aktuellen Szenario, das wir uns vorstellen können, mehr oder weniger ähnlich ist, aber die Anforderungen für 4K und 144 Hz sind viel höher und die Konsolen werden es offensichtlich erst bei der neuen Generation sehen. Viele Benutzer berichten von einem sehr hohen VRAM-Verbrauch, sodass Ampere mehr Speicher dieser Art enthalten könnte oder sollte, aber gleichzeitig müssen wir andere Schlüsselfaktoren haben:

  • Gesamtbandbreite.
  • Bus
  • GDDR6 Geschwindigkeit.

Obwohl es nicht so scheint, bedeutet eine höhere Bandbreite mit einem höheren Bus oder mit einer höheren Geschwindigkeit von GDDR6, dass die Menge der Texturen, die gespeichert werden müssen, geringer ist, da sie mit einer höheren Gesamtgeschwindigkeit innerhalb der arbeiten GPU. Dies erhöht auch die Latenz bei der Ausführung solcher Arbeiten und wirkt sich auf die Menge oder den Export von Texturen aus, die mit dem System-RAM reduziert werden.

NVIDIA-Ampere

Daher kann die VRAM-Menge auf einer Ampere-Karte gleich sein, aber wie wir bei anderen Gelegenheiten bei Architekturen gesehen haben, ermöglichen die neuen Algorithmen und die größere Bandbreite eine erhebliche Reduzierung des VRAM. Sie müssen sich nur an Maxwell mit verbesserter Farbe erinnern Kompression.

Daher ist diese Debatte mehr für die Zukunft als heute. Lohnt es sich, mehr für ein Modell mit mehr VRAM zu bezahlen? Ja, immer, aber lohnt es sich, mehr für ein High-End-Modell mit mehr VRAM zu bezahlen? Das ist die eigentliche Frage und es ist etwas, das jeder mit seiner Tasche und der Zeit, die er beabsichtigt, um die Karte zu behalten, schätzen muss.

In der Regel ist VRAM immer willkommen, wenn wir einer von denen sind, die alle 4 oder 5 Jahre (oder länger) wechseln. Wenn wir stattdessen die GPU in weniger Jahren aktualisieren, ist VRAM nicht so entscheidend und die allgemeine Leistungsfähigkeit der Grafik Karte ist. In sich.