We bederven de AI's en het zal ons levens kosten

Plots is het internet gevuld met kunstmatige intelligentie die in staat is om moeiteloos inhoud uit het niets te genereren, en de meest onschuldige en technisch onderlegde mensen juichen de prestaties van deze nieuwe technologieën toe. Maar zoals oom Ben zou zeggen. "Met grote macht komt grote verantwoordelijkheid" en we denken dat dit het juiste moment is om met u te praten over de gevaren in dit verband. Vooral vanwege het feit dat de AI is onbeleefd.

Het verschijnen van automatische contentgeneratoren door middel van kunstmatige intelligentie zoals Wall-E en GPT heeft ertoe geleid dat velen zich afvragen wat kunstmatige intelligentie is. Sommigen spreken zelfs van het einde van bepaalde transacties, sommigen in positieve zin en anderen in negatieve zin. Voor ons echter de crux en waar het fundamentele probleem ligt.

We bederven de AI's en het zal ons levens kosten

Waarom wordt AI verkeerd opgeleid?

De discipline binnen de wereld van kunstmatige intelligentie die het meest groeit is die van het zogenaamde Deep Learning of Deep Learning, dit is erop gebaseerd om het systeem op de een of andere manier een grote hoeveelheid data te geven zodat het systeem uiteindelijk detecteert een patroon. Het heeft echter niet de capaciteit om te leren met weinig informatie en heeft een groot aantal voorbeelden nodig.

Stel dat je een schattig poesje hebt en je laat het zien aan een heel jong jongetje of meisje dat er nog nooit een heeft gezien. Deze eerste ervaring zal het wezen helpen om in zijn geheugen op te slaan wat een kat is en zijn kenmerken, en het zal in staat zijn om het te identificeren in andere media, zoals in de vorm van een tekening, een sculptuur. Dit allemaal vanwege het feit dat onze hersenen die capaciteit hebben, maar helaas, in het geval van computers, hebben zelfs de krachtigste ter wereld die capaciteit niet.

Met andere woorden, we hebben een groot aantal foto's van katten nodig voor een AI om te identificeren wat een kat werkelijk is door middel van Deep Learning. Natuurlijk is ons voorbeeld volkomen onschuldig en onschadelijk. Een grote hoeveelheid informatie vereist echter dat deze wordt genezen, dat wil zeggen, zodanig wordt geselecteerd dat de conclusies of patronen die het systeem concludeert niet onjuist zijn. Dat wil zeggen, net zoals we een kind bepaalde dingen niet leren, willen we ook niet onbeleefd zijn tegen de AI, zodat deze niet de verkeerde patronen genereert.

Robot Aprendiendo Maleducando IA

Internet is een vuilnisbelt

Om verschillende kunstmatige intelligenties te trainen, vooral conversatie, besluiten veel van hun makers, om tijd en geld te besparen, om ze niet te trainen met wetenschappelijk geverifieerde gegevens, maar ze in plaats daarvan over te laten aan internetgebruikers met meer dan desastreuze gevolgen . De reden? Je kunt het je voorstellen, van mensen die omgaan met valse en niet-geverifieerde informatie tot mensen die willen dat het systeem negatieve gedachten heeft over kwesties als genderidentiteit, seksuele geaardheid en ook over andere etniciteiten die uiteindelijk problematisch worden omdat ze informatiebronnen zijn van haat .

Het feit dat de informatie niet wordt beheerd, is gevoelig. We kunnen bijvoorbeeld een AI leren om het menselijk lichaam te tekenen met verschillende monsters. We weten echter allemaal dat het gebruik van naaktheid noodzakelijk is. En waar is er meer naakt materiaal? Nou ja, je raadt het al, in de porno-industrie. Het gevaar bestaat dus dat een AI die met deze beelden is getraind, er uiteindelijk een genereert die erg lijkt op het bronmateriaal of er sterk door wordt beïnvloed.

Daarom is het belangrijk om AI geen autoriteitscriteria te geven en ervoor te zorgen dat ze te allen tijde met de juiste informatie werken. Velen zullen het zien als censuur, maar het is hetzelfde proces als wanneer we een minderjarige opvoeden. Dat wil zeggen, het internet is een vuilnisbelt die niet geschikt is als database voor kunstmatige intelligentie. Het is dus belangrijk om te zorgen voor de verificatie van de gegevens die we gebruiken als leerpatronen.

Nepnieuws Maleducando IA

Nee, kunstmatige intelligentie gaat je baan niet overnemen

De afgelopen dagen hebben we gezien dat ze niet ophouden met het herhalen van de mantra dat voor de makers van inhoud, zowel geschreven als in de vorm van afbeeldingen, de wereld vergaat omdat kunstmatige intelligentie uiteindelijk ons ​​werk zal vervangen. Waar ze zich niet van bewust zijn, is dat deze machines het onvermogen hebben om te creëren en alleen kunnen fungeren als imitatie-elementen van wat al eerder is gegenereerd. Dat is, ze hebben geen enkele creatieve capaciteit, wat hun capaciteit enorm beperkt.

We moeten uitgaan van het feit dat we nog steeds erg groen zijn als het gaat om kunstmatige intelligentie, en veel van wat we de afgelopen jaren zien aangekondigd, ondanks het feit dat het ons misschien indrukwekkend lijkt, bevindt zich in een zeer vroeg stadium en we doen niet hebben Ze moeten het behandelen als betrouwbare informatie, maar als conclusies van een AI die deelconclusies trekt uit een zeer beperkt en soms zelfs foutief spectrum aan data.

Velen zullen bevestigen dat het verzamelen en selecteren van de gegevens indruist tegen de "vrijheid van meningsuiting", maar het is één ding om een ​​mening te geven over ware informatie en iets anders om conclusies te trekken uit onwaarheden of een gedeeltelijke visie op de werkelijkheid. In deze tijden is het belangrijk om de beperkingen te kennen van de technologieën die we gebruiken en het is vooral belangrijk om kunstmatige intelligentie niet te behandelen alsof het een soort orakel of lezer van de werkelijkheid is.

IA Arte

De gevolgen van onbeleefd zijn tegen AI zijn verschrikkelijk

Voor velen klinkt het misschien als een grap, maar stel je voor dat we een kunstmatige intelligentie trainen die dienst doet als EHBO-assistent. Dat wil zeggen, wat te doen als een persoon gewond raakt. Als de gekozen gegevens verkeerd zijn en we vinden dat we onbeleefd zijn tegen een AI, dan kan deze advies geven dat ernstige gevolgen kan hebben voor zowel de gewonden als de helpers.

En het is niet het enige geval, de angsten en zorgen jegens bepaalde minderheden kunnen worden doorgegeven als informatie en vrijheid van meningsuiting en dit kan ook mensenlevens kosten als er geen controle is. Laten we de voortdurende moorden en uitroeiingen niet vergeten. Het lijkt ons dus een grote vergissing om met internet onbeleefd tegen AI te zijn. Uiteindelijk zullen we ervoor betalen en erg duur zijn, omdat we autoriteit geven aan een systeem dat alleen herhalende patronen weet te vinden en dat qua bewuste kennis niet anders is dan een papegaai, wat meer is, het is nog minder intelligent.

Boca Verdad