Åldring av CPU: Är den större vid mindre nanometer?

Normalt när vi köper en processor gör vi det med tanke på varaktig X-tid. I vissa fall är den här tiden ganska lång, men när vi överväger att vi måste förändras kan vi sälja den CPU och det hamnar i händerna på en kedja av användare som fortsätter att be om samma prestanda. Detta kan vara över, eller åtminstone skära ner med processorerna som kommer, varför blir det snabbare CPU-åldrande ?

Vi kommer inte att upptäcka någonting om vi säger att de nya litografiska processerna blir mer och mer komplicerade, att hela branschen spenderar enorma mängder pengar och att investeringen blir större eftersom utmaningarna som måste ställas så kräver det. Men även om många av problemen är löst finns det särskilt ett som inte tillåter många ingenjörer att sova: det för tidiga åldrandet av chips från vissa nanometer.

Åldring av CPU

CPU-åldrande, varför kommer det att inträffa och i vilken utsträckning?

Det finns flera faktorer som avgör för tidigt åldrande av nya CPU: er och eventuellt nya GPU: er. Den första är väldigt enkel: chipsens design hålls väldigt nära den fysiska gränsen för frekvenser, kärnor och i allmänhet för överdrivna mönster som försöker få prestanda och därigenom differentierar sig från tävlingen.

Det bästa nuvarande exemplet vi har i i9-10900K, en CPU som knappt har en överklockningsmarginal, där spänningsväggen för vanliga temperaturer kommer väldigt snabbt och där designen på dess 14 nm + har nått den fysiska gränsen med Intel.

Detta förutsätter en andra faktor som måste beaktas: den så kallade elektriska spänningen. Att höja frekvenserna innebär att spänningen måste göra samma sak och med det lider chipet av en större elektrisk spänning som tvingar Intel i detta fall att lämna en minsta säkerhetsmarginal hos nämnda processor. Detta genererar ytterligare två angränsande effekter, inte bara till denna specifika CPU, utan till alla andra som är i samma situation och är känd som självuppvärmning och fältstyrka.Bästa processorer-processorer-för-Streaming

Den höga temperaturen uppnår en mycket nyfiken effekt på elektronerna, eftersom den ständigt migrerar dem från den hårdaste metallen till den mjukaste (elektromigrering) och detta förändrar exponentiellt chipets livslängd, särskilt vid vissa temperaturdelta.

Negativ partisk instabilitet

Det finns ytterligare ett märkligt faktum bortsett från allt som sägs och det kommer att bli ännu större när vi kommer närmare nanometern själv och det är den negativa instabilitetsfaktorn för partiskhet. Denna faktor bestämmer vilken spänning som appliceras på varje typ av nod enligt värden som täthet, frekvens eller fältstyrka.

Detta betyder att även om nanometern reduceras minskar den minsta tillämpliga spänningen inte i samma utsträckning. Till exempel vid 28 nm fluktuerade minsta spänning i genomsnitt med 1.2 volt eller 1.3 volt, men för 3 nm uppskattas vi att vi kommer att vara på 0.6 eller 0.7 volt i viloläge. Densiteten i detta exempel har multiplicerats med nästan 8, men spänningen har knappast minskats med 50%, vilket orsakar överhettningsproblem mellan anslutningarna mellan enheterna.

På grund av allt detta har tillverkarna av skivorna varit tvungna att skapa ett väldigt nyfiken system för övervakning och testning av chips, eftersom varje användare använder olika processorer på olika sätt. Från den som inte överklockar och har ett bra kylsystem, till det som tar det till gränsen med en kylare och manuell spänning dygnet runt. Systemet har kallats inbränningstest och namnet är helt korrekt.

Inbränningstest

Målet med detta test på skivor är mycket enkelt, eftersom det som eftersträvas är att åldras en serie skivor som tidigare valts och registrerats, så att genom denna konstgjorda process funktionalitet och tillförlitlighet kan verifieras. Utöver detta kan tillverkare lägga till kontrollmetoder med hjälp av vissa sensorer, som har fördefinierade tider när elektronerna måste gå runt ett fartyg. Om elektronen tar längre tid eller inte passerar, upptäcker sensorn detta problem och rapporterar chipnedbrytningen.

Problemet är logiskt att dessa sensorer är extremt dyra och endast används i gjuterier under Burn-in-testning, men det skulle vara intressant att ha något liknande på alla processorer.

I slutändan båda Samsung, Intel och TSMC har funnit att deras enheter, om de utsätts för högre elektriska fält, försämras mycket snabbare än tidigare när transistorer krymper. Detta kommer att orsaka att kostnaderna för att kontrollera skivorna är högre eftersom de måste garantera ett minimum av livslängd och säkert kommer att påverka frekvenserna och spänningarna, så arkitekturerna kommer att ha mycket att säga i detta avseende.