Deepfake: Nixon i sorg efter misslyckad månlandning

Inför månlandningen den 20 juli 1969 hade president Nixon förberett två tal – ett för att fira framgången med Apollo 11 och ett annat för att beklaga det misslyckade försöket. Lyckligtvis behövde presidenten bara använda det upplyftande talet, men 50 år senare läser han slutligen upp fiaskotalet – eller i alla fall gör en artificiell intelligens det åt honom. Filmen med det falska talet har just vunnit en Emmy.

Inför månlandningen den 20 juli 1969 hade president Nixon förberett två tal – ett för att fira framgången med Apollo 11 och ett annat för att beklaga det misslyckade försöket. Lyckligtvis behövde presidenten bara använda det upplyftande talet, men 50 år senare läser han slutligen upp fiaskotalet – eller i alla fall gör en artificiell intelligens det åt honom. Filmen med det falska talet har just vunnit en Emmy.

MIT

"Om man inte vet om det, så accepterar man väldigt mycket – helt okritiskt."

Orden kommer från Magnus Bjerg, konceptutvecklare i deepfake-filmen ”In Event of Moon Disaster” som producerats av Massachusetts Institute of Technology, MIT, och just vunnit en Emmy för dokumentärfilmer i kategorin ”Outstanding Interactive Media”.

Personerna bakom videon vill visa "hur nya tekniker kan böja, omdirigera och maskera sanningen omkring oss" samt "utforska inflytandet av genomgripande felaktig information och deepfake-tekniker i vårt samhälle".

I det historiska talet förklarar USA:s dåvarande president Richard Nixon att månlandningen inte gick som planerat. Men bilderna och ljudet är syntetiska. De är resultatet av vad artificiell intelligens kan åstadkomma. Och därför är talet oäkta.

Frågan är: Kan du uppfatta det?

Så här avslöjar du fejkade videor

Deepfake-videon med Nixon baseras på artificiell intelligens och så kallad djupinlärningsteknik. Kort sagt betyder det att en dator har pluggat in en skådespelares ansiktsdrag och mimik till hudlöshet – för att sedan producera och klippa in en ny mun över Nixons ansikte.

Och i samarbete med en talskådespelare framställde MIT-gruppen syntetiskt tal, som passade till Nixons nya, manipulerade munrörelser.

"För oss handlar det om att visa vad den här tekniken är kapabel till, så att vi kan börja prata om vad vi kan göra när vi förr eller senare står dagen före ett val och ser en video av en politiker, som tycks säga något grovt rasistiskt. Vi är redan uppmärksamma på att bilder kan behandlas i Photoshop. Nu är det dags att vi börjar bli kritiska till levande bilder också", säger Magnus Bjerg.

Han menar också att deepfakes i dag är så övertygande att de kan vara svåra att avslöja.

Men om du är osäker på om en video är en deepfake, bör du iaktta ansiktets kant. Ser konturerna naturliga ut? Är hudtonen likartad? Hur uppför sig skuggorna vid kragen? Har personen en onaturlig, "död" blick i ögonen? Ser tänderna underliga eller pixlade ut?

© MIT

Detaljerna gör helheten

Det nederländska företaget Sensity har konstruerat en algoritm som kontrollerar deepfake-innehåll. Algoritmen har matats med flera tusentals timmar av äkta och falska videor, varpå den har fått i uppgift att identifiera olikheterna. Algoritmen går igenom varenda pixel i varenda bild – ofta flera tusen per video – för att hitta eventuella avvikelser.

Enligt Henry Ajder, chef för hotinformation hos Sensity, måste de dyka ned i de allra minsta detaljerna för att avslöja deepfakes.

"De flesta deepfakes kan inte upptäckas av det mänskliga ögat, vilket innebär att felen ligger på pixelnivå. Vår algoritm är bland annat tränad att hitta pixlar där de inte hör hemma: små grupper av pixlar som antingen är för mörka eller för ljusa [jämfört med omgivningarna, reds. anm.]", berättar Henry Ajder.

I december 2018 spårade Sensity upp över 14 000 videor på internet, som de klassificerade som deepfakes.

Enligt Magnus Bjerg har Sensity dessutom synat "In Event of Moon Disaster" i sömmarna. Och företagets grundliga algoritm kunde konstatera att videon var en deepfake.

Det falska ansikten i andra sammanhang

Tekniken, som hittills huvudsakligen har levererat innehåll som har omfattat områden från pornografi till politik, kan även användas till andra ändamål, poängterar Magnus Bjerg:

"Deepfake-tekniken kan spara in en massa pengar åt filmindustrin. Det har gjorts filmer, där James Dean (död 1955, reds. anm.) finns med i rollistan. Och i dokumentärfilmer kan man använda tekniken till att exempelvis skydda identiteter, som man gjorde med homosexuella personer som medverkade i den ukrainska dokumentären 'Welcome to Chechnya'."

Deepfakes blev på allvar kända för den breda allmänheten 2017, när en användare på webbplatsen Reddit började ladda upp videor med främst pornografiskt innehåll. Kort senare kunde användarna hitta videor, i vilka ansiktena av berömda popsångerskor som Taylor Swift och Katy Perry hade manipulerats in i porrfilmer.

Både Google, Facebook och Twitter har lanserat projekt som ska upptäcka och ta bort de fejkade videorna, innan de hinner sprida felaktig information på internet.

Facebook har lagt ut miljontals dollar på att finansiera akademiska institutioner, med bild- och videoanalyser på programmet och som samtidigt forskar i hur deepfake-videor kan utplånas.

Och av samma orsak är Magnus Bjerg och resten av MIT-gruppen förtegna om detaljerna i hur de har gått till väga. I samma andetag säger han:

"Vi är ganska imponerade – närmast chockerade – över hur bra deepfake-videon blev. Det är dock lite betryggande att det trots allt tog oss tre månader att producera den, så att vi har lite tid på oss, även om de fejkade videorna hela tiden går snabbare och blir billigare att producera och resultatet blir bättre."