Pouvez-vous créer un service comme ChatGPT ou Dall-E chez vous ?

Depuis quelque temps, les cartes graphiques ajoutent de plus en plus de fonctionnalités, au point non seulement d'aller au-delà de la génération de graphismes réalistes sur notre écran, mais aussi de soutenir l'essor de l'intelligence artificielle. Cela a permis la création de services sur Internet pour la génération d'images automatiques telles que DALL-E ou d'autres services tels que ChatGPT. Mais, quel est le coût de pouvoir créer un service d'IA basé sur du matériel ?

Malgré le fait que nous avons encore un long chemin à parcourir dans le domaine de l'intelligence artificielle, l'apparition de services dans lesquels, en plaçant une série de mots ou de phrases clés, il est capable de générer une histoire dans le texte ou, à défaut, une image qui peut être plus ou moins correcte. Et malgré le niveau d'échecs que cette technologie a, beaucoup de gens sont fascinés par elle, mais ils ignorent qu'un niveau de complexité est nécessaire et qu'il est impossible d'émuler même sur l'ordinateur le plus puissant que vous pouvez assembler avec le plus cher composants que vous pouvez trouver dès maintenant.

Pouvez-vous créer un service comme ChatGPT ou Dall-E à la maison

Combien coûte le matériel ChatGPT ou Dall-E ?

Eh bien, plusieurs milliers d'euros, voire des dizaines d'euros, car la quantité de données qu'ils traitent pour faire leur travail et la quantité d'énergie nécessaire pour le faire nécessitent des configurations de dizaines voire de centaines de cartes graphiques. Non seulement pour générer les réponses de l'algorithme d'inférence, avec lequel l'utilisateur interagit, mais aussi pour former l'IA, c'est-à-dire pour apprendre les valeurs et tirer ses propres conclusions.

Serveur NVIDIA DGX IA

Le matériel utilisé dans bon nombre de ces cas est le NVIDIA DGX SuperPOD , un serveur construit par NVIDIA composé de centaines de cartes graphiques, mais pas pour les jeux, mais celles utilisées pour le calcul haute performance. Pensez, par exemple, que le prix d'un NVIDIA H100 peut nous coûter au total 5,000 9 euros et nous avons même des modèles qui vont à cinq chiffres, c'est bien plus que ce qu'un utilisateur permanent dépensera pour son ordinateur, même avec un i4090 dernière génération et une RTX XNUMX aujourd'hui.

Et haut, que la chose ne s'arrête pas là. Le volume de données est tel qu'il ne tient pas sur une seule carte graphique et il faut en utiliser plusieurs. Par exemple, ChatGPT nécessite des équipes de 8 cartes graphiques de ce type, un coût d'au moins 40,000 XNUMX euros par serveur au minimum. Et si nous parlons de Dall-E, qui gère les images et est plus complexe, le coût peut monter en flèche de plusieurs dizaines. Nous avons donc encore longtemps pour avoir quelque chose comme ça au niveau national et pour cela, nous devrons attendre une décennie entière pour avoir quelque chose de cette capacité dans notre PC domestique.

La mémoire est le plus gros goulot d'étranglement pour y parvenir

Tout cela est dû à la quantité d'informations dont l'algorithme d'intelligence artificielle a besoin pour tirer ses conclusions, tout comme cela se produit avec le cerveau humain qui tire des conclusions à partir des informations et des connaissances dont il dispose. Vous devrez donc stocker les données de recherche sur Internet comme base pour faire votre travail. Ce qui est énorme et oblige à utiliser des infrastructures extrêmement coûteuses.

Astronaute Caballo Dall-E GPT

De plus, ils ne sont pas entièrement fonctionnels, il suffit de voir certaines aberrations que ChatGPT donne en réponse à certaines questions ou les dessins dignes des pires cauchemars et sans aucun sens que Dall-E nous montre parfois et dont on ne sait pas comment il pourrait arriver à une telle conclusion. Même s'il faut reconnaître que certains sont même curieux et dignes d'être encadrés, il reste encore de nombreuses années avant qu'ils n'aient une marge d'erreur aussi élevée quant à ce qu'on leur demande et à ce qu'ils montrent.