NVMe SSD's zijn het meest geavanceerde opslagtype tot nu toe in termen van toegangssnelheid en bandbreedte. Maar wat als we je vertellen dat we de einde van SSD's in M.2-modules en daarom worden de snelste SSD's van vandaag vervangen? We leggen de reden uit.
Een van de grootste klachten over NVMe SSD's in de vorm van M.2-modules is hoe weinig ruimte ze hebben voor chips. Dit beperkt je opslagcapaciteit. Dit is echter niet de reden waarom dergelijke verbindingen in toekomstige generaties hun einde zouden kunnen zien.
Waarom zien we het einde van M.2-modules?
Een element dat alle processors gemeen hebben, is dat ze qua bandbreedte en toegangssnelheid meestal niet profiteren van meer dan 2 DIMM- of SO-DIMM-modules, waardoor de extra modules dienen als uitbreidingen op de reeds bestaande toegangskanalen. Dat is tenminste het geval bij pc-processors, aangezien zowel werkstations als servers geheugentoegangsmechanismen hebben om te profiteren van het grote aantal modules dat op de computer is geïnstalleerd. moederbord.
Dus 90% van de pc-gebruikers heeft maximaal twee modules, wat ons doet afvragen. Is er een manier om de derde en vierde module efficiënter te gebruiken? Nou ja, het plaatsen van een SSD binnen, wat het einde zal markeren. Laten we niet vergeten dat deze opbergeenheden bestaan uit:
- Een flash-driver.
- Een DRAM-geheugen zodat de controller zijn taken efficiënter kan uitvoeren, hoewel er in sommige gevallen units zonder eigen geheugen zijn die het systeem-RAM gebruiken.
- Vanzelfsprekend zijn de NVMe-geheugenchips, dat wil zeggen de NAND Flash waar de gegevens in worden opgeslagen.
Een SSD op DIMM's plaatsen lijkt misschien gek, maar het is logisch, aangezien de toegang tot gegevens op uw DRAM niet langzamer is dan via PCI Express. Met andere woorden, het zou niet nodig zijn om voortdurend gegevens te kopiëren, noch om een deel van het geheugen als back-upcache te gebruiken.
NV-DIMM's zijn de toekomst
Een van de grootste problemen die tegenwoordig bestaan op het gebied van prestaties, is de latentie tussen de processor en RAM, hoewel met oplossingen zoals CXL extra RAM-modules kunnen worden toegevoegd via PCI Express. Er is aangetoond dat toegangslatentie van de PCI Express-poort in het midden de prestaties verslechtert. Met andere woorden, het uitvoeren van programma's vanuit dat geheugen is veel langzamer.
Dat is het grootste knelpunt van de huidige NVMe SSD's, ze kunnen hun opslagcapaciteit en zelfs hun bandbreedte vergroten, maar hun latentie is onoverkomelijk en zal toenemen zodra hoge bandbreedtes het gebruik van PAM-codering afdwingen zodat het verbruik niet omhoogschiet. De gevolgen van dit alles? Je moet een manier vinden om de prestaties te verbeteren, terwijl je hoge bandbreedtes behoudt. Hoe? De oplossing hebben we je al verteld, plaats een SSD in een DIMM module.
Een DDR5-4800 geheugenmodule heeft een 64-bit bus en daarmee een bandbreedte van 38.4 GB/s. De PCI Express 5.0-module? 16 GB/sec. Hoewel de cijfers met PCIe 6.0 zullen stijgen, hebben we al opgemerkt dat het latentieprobleem onoverkomelijk is en daarom kan het einde van M.2-modules op papier worden geschreven.
Het laatste punt, de geheugencontroller van de processor
Geheugencontrollers ingebouwd in de CPU en wiens taak het is om toegang te krijgen tot RAM, verschillen qua werking niet van flitscontrollers, de laatste zijn eerder een complexere versie van de eerste. Dus als de tijd daar is, zou het niet verrassend zijn om processors te zien met de mogelijkheid om een NV-DIMM-module rechtstreeks te beheren. Wat betekent dat voor dergelijke systemen het gebruik van een NVMe SSD zal resulteren in een veel slechtere optie.
Aangezien de fabrikanten van NVMe SSD's in M.2-modules dezelfde zijn die RAM maken, zal deze wijziging niet resulteren in iets dat de industrie op zijn kop zal zetten. Bovendien maakt het een van de wensen van systeemontwerpers mogelijk. Het hebben van enorme opslag met dezelfde directe toegangssnelheid als RAM en zonder zware oefeningen voor het kopiëren van gegevens.