Facebook identificerer dybe falske billeder med sin kunstige intelligens

Facebook identificerer dybe falske billeder med sin kunstige intelligens

Facebook har udviklet en kunstig intelligens, der ønsker at identificere dybe falske billeder og derefter spore deres skabere. En deepfake består af en video, hvor en persons stemme og ansigt ændres af kunstig intelligenssoftware, hvilket får den ændrede video til at virke autentisk. Denne teknik bruges hovedsagelig med offentlige personer. Facebook analyserer lighederne mellem en samling af forskellige dybe forfalskninger for at se, om de har en fælles oprindelse, på udkig efter unikke mønstre såsom små pletter af støj eller små underlige i farvespektret på et billede.

Ved at identificere mindre fingeraftryk i et billede, Facebooks kunstige intelligens kan skelne detaljer om, hvordan det neurale netværk, der skabte billedet, blev designet, f.eks. størrelsen på modellen eller hvordan den blev trænet. Hvordan kunne vi bare ved at se på et foto vide, hvor mange lag et dybt neuralt netværk har, eller hvilken tabsfunktion det blev trænet på? siger Tal Hassner, Facebooks AI anvendte videnskabsleder.

Kompleksiteten af ​​kunstig intelligens

Hassner og hans kolleger testede kunstig intelligens på en database med 100,000 dybe falske billeder genereret af 100 forskellige generative modeller, der fremstiller 1,000 billeder hver. Nogle af disse billeder blev brugt til at træne modellen, mens andre blev bevaret og præsenteret for modellen som billeder af ukendt oprindelse.Kunstig intelligens

Det hjalp med at teste kunstig intelligens på sit ultimative mål. ”Hvad vi laver er at se på et foto og forsøge at estimere, hvad designet på den generative model, der skabte det, er, selvom vi aldrig har set den model før,” siger Hassner. Han nægtede at dele hvor nøjagtig estimaterne af kunstig intelligens var, men siger "vi er meget bedre end tilfældige."

Et skridt fremad for teknologi

”Det er et stort skridt fremad for fingeraftryk,” siger Nina Schick, forfatter til bogen Deep Fakes and the Infocalypse. Men hun påpeger, ligesom Hassner og hendes kolleger, at AI kun fungerer med billeder, der har været helt kunstigt genereret, hvorimod mange deepfakes er videoer oprettet ved at lime et ansigt på en andens krop.

Schick undrer sig også over, hvor effektiv AI ville være uden for laboratorieindstillingerne og finde dybe forfalskninger i naturen . "Den type ansigtsgenkendelsesmodeller, som vi ser, er generelt baseret på akademiske datasæt og implementeret i kontrollerede miljøer," siger Schick.

Kunstig intelligens

Hassner nægtede at tale om, hvordan Facebook ville bruge sin nye AI, men siger, at denne form for arbejde er et spil af kat og mus mod mennesker, der skaber dybe forfalskninger. ”Vi udvikler bedre identifikationsmodeller, mens andre udvikler stadig bedre generative modeller,” siger Hassner. ”Det er jeg ikke i tvivl om på et eller andet tidspunkt der vil være en metode det vil helt narre os. ” Selvom Facebook undertiden skaber problemer, er der ingen tvivl om, at det gør et godt stykke arbejde med at finde dybe forfalskninger.