GPT-4 is de limiet: experts en figuren als Elon Musk vragen om de ontwikkeling van AI te pauzeren om risico's in de samenleving te vermijden

Aangezien de ontwikkeling in kunstmatige intelligentie vordert, bereiken we ook de grens die experts als veilig beschouwen. Elon Musk, stichtend lid van OpenAI, makers van ChatGPT, hebben samen met andere AI-experts een nogal alarmerende verklaring uitgebracht die op tafel legt wat de risico's voor de samenleving zullen zijn.

GPT-4 wordt beschouwd als de laatste veilige standaard voorlopig en de felle race voor AI-ontwikkeling in laboratoria is door concurrentie een uit de hand gelopen fase ingegaan met mogelijk onomkeerbare gevolgen.

experts en figuren als Elon Musk vragen om de ontwikkeling van AI te stoppen

AI-chats "zijn een risico voor de samenleving"

Elke technologische vooruitgang kan een risico vormen, maar de voorspellingen die sommige experts in het veld hebben, zijn alarmerend. Een paar dagen geleden feliciteerden we onszelf met GPT-4 en de mogelijkheden ervan voor de implementatie ervan in ChatGPT, maar het lijkt erop dat er een barrière is tussen

In een open brief , bellen Elon Musk en een groep AI-experts en leidinggevenden uit de branche voor een ontwikkelingspauze van zes maanden systemen krachtiger dan OpenAI's onlangs uitgebrachte GPT-4: "We doen een beroep op alle AI-labs om het trainen van AI-systemen die krachtiger zijn dan GPT-4 onmiddellijk te onderbreken voor minimaal 6 maanden."

GPT-4

De redenen voor het aanvragen van deze ontwikkelingspauze zijn dat ze worden beschouwd als ernstige risico's voor de samenleving en de mensheid. “Geavanceerde AI zou een ingrijpende verandering in de geschiedenis van het leven op aarde kunnen betekenen, en het moet met zorg en middelen worden gepland en beheerd. Helaas gebeurt dit niveau van planning en beheer niet, en zelfs de afgelopen maanden zijn AI-labs binnengekomen een uit de hand gelopen race om steeds krachtigere digitale geesten te ontwikkelen en in te zetten die niemand, zelfs hun scheppers niet, kan begrijpen. betrouwbaar voorspellen of beheersen .

Een pauze van 6 maanden is noodzakelijk

In gedachten houdend dat de concurrentie om systemen te ontwikkelen die worden aangedreven door kunstmatige intelligentie inderdaad de nieuwe boom is waaraan veel nieuwe spelers deelnemen, een moratorium van 6 maanden is verzocht.

De redenen hiervoor komen voort uit een reeks vragen over hoe deze technologie zou kunnen evolueren, waarvan sommige dichter bij Skynet in Terminator: " Moeten we de machines onze informatiekanalen laten overspoelen met propaganda en leugens? Moeten we alle taken automatiseren? Moeten we niet-menselijke geesten ontwikkelen die ons uiteindelijk in aantal kunnen overtreffen, ons te slim af kunnen zijn en ons kunnen verouderen en vervangen? Moeten we riskeren de controle over onze beschaving verliezen ?

ChatGPT

Het is in het licht van deze angsten dat alle AI-labs worden verzocht dit te doen pauzeer onmiddellijk voor minimaal 6 maanden training op AI-systemen krachtiger dan GPT-4. Er wordt zelfs zo dringend op aangedrongen dat als een dergelijke pauze niet in alle gevallen privé plaatsvindt, zij van mening zijn dat regeringen moeten ingrijpen en een moratorium moeten instellen.

Onderzoek en ontwikkeling op het gebied van AI moeten opnieuw worden gericht op het nauwkeuriger, veiliger, interpreteerbaar, transparant, robuust, afgestemd, betrouwbaar en loyaal maken van de huidige krachtige systemen van de volgende generatie.