Med de nya AI-verktygen för datorer är falska videor och falska nyheter redan möjliga, och det vi ser idag är bara ett första smakprov på vad som kommer att vara möjligt i framtiden. Här har vi det första konkreta användningsfallet, eftersom någon använde en algoritm för att infoga ansiktet på "Wonder Woman"-stjärnan Gal Gadot i en porrvideo – och resultaten är chockerande övertygande.
Reddit-användaren Deepfakes tränar Neural Networks på kändisars ansikten, han infogar sedan de rörliga ansiktsanimationerna i riktig porr med hjälp av ansiktsdetektering - så länge jag tolkar videorna korrekt länkar jag dem inte hit, du kan ta reda på det själv. Resultatet är autentisk porr med din favoritskådespelerska. Falsk porr via Photoshop är ungefär lika gammal som internet och realistiskt sett förmodligen lika gammal som Photoshop själv, bara här är processen automatiserad och kommer att fungera på efterfrågan i framtiden. Även om AI-kodare bör installera säkerhetsmekanismer som ska förhindra en AI från "identitetsstöld", kommer det att finnas hacks och cracks för det också. Konceptet kommer inte att försvinna, och det kommer förmodligen inte att sluta med skådespelerskor heller. Välkommen till framtiden.
Hittills har deepfakes lagt upp hardcore porrfilmer med ansiktena på Scarlett Johansson, Maisie Williams, Taylor Swift, Aubrey Plaza och Gal Gadot på Reddit. Jag har kontaktat förvaltningsbolagen och/eller publicister som representerar var och en av dessa aktörer och informerat dem om de falska videorna och kommer att uppdatera om jag hör tillbaka. […]
Enligt deepfakes – som avböjde att ge mig sin identitet för att undvika offentlig granskning – är programvaran baserad på flera bibliotek med öppen källkod, som Keras med TensorFlow-backend. För att sammanställa kändisarnas ansikten sa deepfakes att han använde Googles bildsökning, stockfoton och YouTube-videor. Deep learning består av nätverk av sammankopplade noder som autonomt kör beräkningar på indata. I det här fallet tränade han algoritmen på porrfilmer och Gal Gadots ansikte. Efter tillräckligt med denna "träning" ordnar sig noderna för att slutföra en viss uppgift, som att övertygande manipulera video i farten. Artificiell intelligensforskaren Alex Champandard berättade för mig i ett e-postmeddelande att ett anständigt grafikkort av konsumentkvalitet kunde hantera denna effekt på timmar, men en CPU skulle fungera lika bra, bara långsammare, över dagar. […]
"Jag hittade precis ett smart sätt att byta ansikte," sa han och syftade på sin algoritm. "Med hundratals ansiktsbilder kan jag enkelt generera miljontals förvrängda bilder för att träna nätverket", sa han. "Om jag sedan matar nätverket med någon annans ansikte, kommer nätverket att tro att det bara är ytterligare en förvrängd bild och försöka få det att se ut som träningens ansikte."
I en kommentarstråd på Reddit nämnde deepfakes att han använder en algoritm som liknar en som utvecklats av Nvidia-forskare och som använder djupinlärning för att till exempel omedelbart förvandla en video av en sommarscen till en vinterscen. Nvidia-forskarna som utvecklade algoritmen avböjde att kommentera denna möjliga applikation.