Kan du oprette en tjeneste som ChatGPT eller Dall-E derhjemme?

I nogen tid nu har grafikkort tilføjet flere og flere muligheder, så de ikke kun går ud over at generere realistisk grafik på vores skærm, men også understøtter fremkomsten af ​​kunstig intelligens. Dette har gjort det muligt at skabe tjenester over internettet til generering af automatiske billeder som f.eks DALL-E eller andre tjenester som f.eks ChatGPT. Men, hvad koster det at kunne skabe en AI-tjeneste baseret på hardware?

På trods af at vi stadig har et stykke vej igen inden for kunstig intelligens, fremstår tjenester, hvor de ved at placere en række nøgleord eller sætninger er i stand til at generere en historie i tekst eller, hvis det ikke, et billede, der kan være mere eller mindre korrekt. Og på trods af niveauet af fejl, som denne teknologi har, er mange mennesker fascineret af det, men de er uvidende om, at der er behov for et niveau af kompleksitet, og at det er umuligt at efterligne selv på den mest kraftfulde computer, som du kan samle med den dyreste komponenter, som du kan finde lige nu.

Kan du oprette en tjeneste som ChatGPT eller Dall-E derhjemme

Hvor meget koster ChatGPT eller Dall-E hardware?

Nå, mange tusinde euro, hvis ikke titusindvis af euro, fordi mængden af ​​data, de håndterer for at udføre deres arbejde, og mængden af ​​strøm, der skal til for at gøre det, kræver konfigurationer af titusinder og endda hundredvis af grafikkort. Ikke kun for at generere svarene fra inferensalgoritmen, som er det, brugeren interagerer med, men også for at træne AI'en, det vil sige at lære værdierne og drage sine egne konklusioner.

NVIDIA DGX Servidor IA

Den hardware, der bruges i mange af disse tilfælde, er NVIDIA DGX SuperPOD , en server bygget af NVIDIA, der består af hundredvis af grafikkort, men ikke til spil, men dem, der bruges til højtydende databehandling. Tænk for eksempel, at prisen på en NVIDIA H100 kan koste os i alt 5,000 euro, og vi har endda modeller, der går til fem cifre, det er meget mere end hvad en stående bruger vil bruge på sin computer, selv med en i9 seneste generation og en RTX 4090 i dag.

Og højt, at tingen ikke slutter der. Mængden af ​​data er sådan, at den ikke passer på ét grafikkort, og det er nødvendigt at bruge flere af dem. For eksempel kræver ChatGPT hold på 8 grafikkort af denne type, en omkostning på mindst 40,000 euro pr. server som minimum. Og hvis vi taler om Dall-E, som håndterer billeder og er mere kompleks, så kan omkostningerne stige med flere dusin. Så vi har stadig lang tid til at have sådan noget på hjemmeplan, og for dette skal vi vente et helt årti på at have noget af denne kapacitet i vores hjemme-pc.

Hukommelse er den største flaskehals for at opnå det

Alt dette skyldes mængden af ​​information, som den kunstige intelligens-algoritme kræver for at drage sine konklusioner, ligesom det sker med den menneskelige hjerne, der drager konklusioner ud fra den information og viden, den har. Så du bliver nødt til at gemme internetsøgningsdata som grundlag for at udføre dit arbejde. Hvilket er enormt og tvinger brugen af ​​ekstremt dyr infrastruktur.

Astronauta Caballo Dall-E GPT

Derudover er de ikke helt funktionelle, du skal bare se visse afvigelser, som ChatGPT giver som svar på bestemte spørgsmål eller de tegninger, der er de værste mareridt værd og uden nogen fornuft, som Dall-E nogle gange viser os, og som vi ikke ved, hvordan han kunne komme til en sådan konklusion. Selvom det må erkendes, at nogle endda er nysgerrige og indramningsværdige, men der er stadig mange år tilbage, før de ikke har så høj en fejlmargin i forhold til, hvad de bliver spurgt om, og hvad de viser.