Att måla bilder är bra, men AI har en mörk sida

På sistone har vi inte slutat titta på tusen och en videos om applikationer som gör underverk med våra bilder. Det om de ökar dess upplösning och dess detaljer, det om de är ansvariga för att återställa färgen. Andra låter oss å andra sidan bokstavligen bli en annan person. Dessa applikationer har dock en dold fara och inte bara integriteten. Vad är den mörka sidan av AI på bilder?

Att måla bilder är bra, men AI har en mörk sida

En av de tydligaste tillämpningarna av artificiell intelligens är att hallucinera data, och nej, vi menar det inte på ett skämtsamt sätt. Det beror snarare på det faktum att dess funktion är att lära sig ett mönster för att kunna göra förutsägelser. I händelse av att vi pratar om ljud, till exempel, kan vi få det att lyssna på flera kompletta låtar och sedan hitta det för att komplettera de saknade. Resultatet? Skapandet av nya verk, men mycket sällan kommer det att bli framgångsrikt om det inte är med massiv utbildning. Tja, detsamma gäller foton och videor. Allt på grund av det faktum att det den sänder är baserat på en förutsägelse och inte är verklig information.

Varför är AI i foton och videor farligt?

Det finns ett ämne som ingen pratar om och det är bevarande av våra minnen, vare sig de är personliga eller kollektiva , och det här är det stora problemet med manipulation av foton via AI . Till exempel kan historisk information ändras av politiska skäl under en sådan premiss. Personer, symboler eller till och med historiska arkiv kan raderas vid källan. Vilket gör att den önskade digitaliseringen av media blir ett problem. En video från en brottsplats? Voila, den politiska dissidenten, kommer att synas i videon så att han kan dömas.

Deep Fake Fotos IA

I en värld där information flyger dagligen och det finns så mycket att det är omöjligt att kontrastera det, Fake News har nu mer makt än någonsin tack vare vad artificiell intelligens nu tillåter oss att göra med media. Det vill säga att skapa falska ovedersägliga bevis som gör ansträngningen för journalister att vara titaniska att informera och förneka dem. Samtidigt hittar vi människor som förstör det förflutna genom att uppgradera gamla bilder och filmer till låg upplösning. Det är möjligt att våra barn inte längre kommer att njuta av verk som de gjordes, utan dubbelgångare gjorda genom artificiell intelligens.

Dessutom känner den här skribenten en familjemedlem som gjorde misstaget att förstöra gamla foton efter att ha gett dem AI-förbättringsbehandlingen. Resultatet? Att ha ett antal foton på din familj som ser ut som, men inte är det, på människor som inte riktigt har funnits. Föreställ dig nu att detta tillämpas på historiska minnen.

Vikten av tillsyn

Problemet med alla dessa AI-fotoappar är det faktum att det inte finns någon övervakningskomponent. I varje inlärnings- och slutledningsprocess måste det finnas en utvärderare, ett element som talar om för algoritmen att den har genererat ett felaktigt resultat och förkastar det som underlag för framtida slutsatser. Många av tjänsterna tillåter oss inte att utvärdera om rekonstruktionen har varit korrekt och den allmänna känslan vi har är att även om AI:n är mycket kraftfull och imponerande, verkar det som att den är en fiende, trogen i många fall av verklighet och mer än rekonstruerar bilder de är delvis påhittade och till hälften sanna.

Denna kapacitet bör skrivas ut i hårdvaran, det vill säga det bör finnas en mekanism som, när den står inför två bilder, kan garantera om den ena ser ut som den andra. Sådana funktioner ignoreras dock helt i bildrekonstruktionsapplikationer, särskilt för gamla foton. Vi har trots allt inget original att jämföra dem med. De har gått vilse i tidens dimmor och därför kommer det vi kommer att uppnå på foton modifierade av AI aldrig att bli en rekonstruktion av den verkliga bilden.

Sammanfattningsvis, var försiktig med AI och historiska minnen, deras massiva användning kan leda till skapandet av falska.