Big Data: Vad har det att göra med hårdvara?

Uttrycket bigdata, även känd som makrodata, tar ganska lång tid på modern datorplats. Men som "molnet" är det en term som ibland är svår att förklara eftersom det är ganska abstrakt. Så i den här artikeln kommer vi att förklara vad Big Data är , vad det består av och, ännu viktigare, vad hårdvaran påverkar på den.

Det är inte förvånande att konspirationsteoretiker utvecklar många teorier om denna term, men från och med nu kan vi garantera dig att det inte finns någon koppling mellan Big Data och världsdominans, du kan vara säker. Så vad är dessa Big Data som vi pratar om så mycket i modern datoranvändning? Låt oss se det.

Stora data

Vad är big data

I huvudsak betyder det ” en enorm mängd data ”, Men om vi berättade förut att det var ett något abstrakt begrepp beror det inte på att det här är allt utan också omfattar studien av dessa data för att leta efter mönster i dem. Det är ett kostnadseffektivt och komplicerat sätt för informationsprocessor att försöka upptäcka något användbart i den.

För att ge dig ett exempel, föreställ dig en superdator som gör tester för att undersöka en sjukdom, som extraherar miljoner och miljoner data. Big Data inkluderar inte bara den informationen, utan också sättet att hantera, klassificera och analysera den för att försöka hitta de svar som söks.

Således har Big Data fem egenskaper som definierar dess användning och filosofi:

  1. Volym - Naturligtvis talar vi om enorma datamängder, så om storleken på dessa inte är betydande kan den inte betraktas som Big Data. Volym är därför det primära kännetecknet för detta koncept.
  2. Variety - Detta attribut behandlar arten och typen av data som ska analyseras.
  3. Fart - dessa data måste analyseras i realtid, vilket innebär att även när man analyserar stora datamängder måste de alla vara tillgängliga samtidigt. Det är här hårdvara spelar in, både för kapaciteten att hysa data och för kraften att hantera den.
  4. Variabilitet - samstämmigheten i datamängden avgör i vilken utsträckning de passar konceptet.
  5. Noggrannhet - är kvaliteten på de data som används för analysen. Endast kvalitetsdata kan producera mönster, annars skulle det vara slöseri med tid. Med andra ord, om du analyserar uppgifterna från en undersökning av en sjukdom, kan du inte ange data relaterade till analysen av tiderna för en Formel 1-drivrutin eftersom det skulle vara inkonsekvent.

Hur mycket data genereras och lagras?

Totalt finns det uppskattningsvis 2.7 zettabyte data i det digitala universum. Vad innebär detta? Låt oss se bordet ...

  • En Terabyte är 1024 Gigabyte
  • En Petabyte är 1024 Terabyte
  • En exabyte är 1024 Petabyte
  • En Zettabyte är 1024 exabyte.

Så 2.7 Zettabyte är cirka 2,968,681,394,995 4 725 150,000 3.3 Gigabyte. Om vi ​​ville lagra den på XNUMX TB hårddiskar skulle vi behöva nästan XNUMX miljoner hårddiskar, något otänkbart, eller hur? Tja, egentligen inte så mycket, med tanke på att mer än XNUMX XNUMX e-postmeddelanden skickas varje minut, XNUMX miljoner Facebook inlägg genereras eller 3.8 miljoner Google-sökningar utförs.

Dessutom ökar dessa siffror dag efter dag och mer och mer information genereras. För att sätta dig i perspektiv, år 2020 produceras 44 gånger mer data än 2010, och förväntningarna är att dessa siffror som vi har gett dig kommer att multiplicera med två innan fem år.

Big Data-hantering och hur hårdvara påverkar

I verkligheten är hanteringen av Big Data inte för komplicerad att förstå. Vi kommer att försöka förklara det på ett enkelt sätt (verkligheten är något mer komplex, men för att vi ska förstå varandra förenklar vi det så mycket som möjligt):

  1. Uppgifterna fångas.
  2. Den fångade informationen sorteras och separeras i mindre enheter med en algoritm för att underlätta analysen av dem.
  3. Ett index för data skapas, eftersom annars det skulle ta tid att hitta någon data skulle multipliceras.
  4. Data lagras.
  5. Uppgifterna analyseras med ett stort antal algoritmer för att söka efter de data som intresserar oss, som vi förklarade tidigare.
  6. Resultaten visas.

Följ exemplet med superdatorn som används för att analysera en sjukdom och försöka hitta ett botemedel. Denna superdator genererar en enorm volym data, med många ingångar och beräkningar varje sekund, så det tar ett enormt lagringsutrymme för att kunna spara och klassificera dem för ytterligare analys.

Det är här hårdvaran kommer in. Du behöver mycket lagringsutrymme, men också att det är mycket snabbt, allt möjligt för att hantera dessa data på kortast möjliga tid. Du behöver också mycket RAM och mycket datorkapacitet för att kunna köra algoritmerna som analyserar dessa data, eller hur?

Sammanfattningsvis är hanteringen av Big Data endast möjlig när hårdvaruindustrin går framåt, eftersom om processorerna, hårddiskarna och RAM inte förbättras i samma takt som de data vi genererar växer, skulle deras analys inte vara möjlig.