Our website does not support Internet Explorer.

To get the best experience on our website and of our content, please use a more modern browser like Edge, Chrome, Safari or similar.

Deepfake: Nixon i sorg efter misslyckad månlandning

Inför månlandningen den 20 juli 1969 hade den amerikanske presidenten Richard Nixon förberett två olika tal, som skulle försegla Apollo 11, Neil Armstrong och Buzz Aldrins öden. Det ena sändes och visades över hela världen. Det andra – fiaskotalet – har aldrig lästs upp eller visats. Förrän nu.

MIT

"Om man inte vet om det, så accepterar man väldigt mycket – helt okritiskt."

Orden kommer från Magnus Bjerg, som har varit konceptutvecklare för deepfake-filmen "In Event of Moon Disaster", som har producerats av Massachusetts Institute of Technology, MIT.

Personerna bakom videon vill visa "hur nya tekniker kan böja, omdirigera och maskera sanningen omkring oss" samt "utforska inflytandet av genomgripande felaktig information och deepfake-tekniker i vårt samhälle".

I det historiska talet förklarar USA:s dåvarande president Richard Nixon att månlandningen inte gick som planerat. Men bilderna och ljudet är syntetiska. De är resultatet av vad artificiell intelligens kan åstadkomma. Och därför är talet oäkta.

Frågan är: Kan du uppfatta det?

Så här avslöjar du fejkade videor

Deepfake-videon med Nixon baseras på artificiell intelligens och så kallad djupinlärningsteknik. Kort sagt betyder det att en dator har pluggat in en skådespelares ansiktsdrag och mimik till hudlöshet – för att sedan producera och klippa in en ny mun över Nixons ansikte.

Och i samarbete med en talskådespelare framställde MIT-gruppen syntetiskt tal, som passade till Nixons nya, manipulerade munrörelser.

"För oss handlar det om att visa vad den här tekniken är kapabel till, så att vi kan börja prata om vad vi kan göra när vi förr eller senare står dagen före ett val och ser en video av en politiker, som tycks säga något grovt rasistiskt. Vi är redan uppmärksamma på att bilder kan behandlas i Photoshop. Nu är det dags att vi börjar bli kritiska till levande bilder också", säger Magnus Bjerg.

Han menar också att deepfakes i dag är så övertygande att de kan vara svåra att avslöja.

Men om du är osäker på om en video är en deepfake, bör du iaktta ansiktets kant. Ser konturerna naturliga ut? Är hudtonen likartad? Hur uppför sig skuggorna vid kragen? Har personen en onaturlig, "död" blick i ögonen? Ser tänderna underliga eller pixlade ut?

© MIT

Detaljerna gör helheten

Det nederländska företaget Sensity har konstruerat en algoritm som kontrollerar deepfake-innehåll. Algoritmen har matats med flera tusentals timmar av äkta och falska videor, varpå den har fått i uppgift att identifiera olikheterna. Algoritmen går igenom varenda pixel i varenda bild – ofta flera tusen per video – för att hitta eventuella avvikelser.

Enligt Henry Ajder, chef för hotinformation hos Sensity, måste de dyka ned i de allra minsta detaljerna för att avslöja deepfakes.

"De flesta deepfakes kan inte upptäckas av det mänskliga ögat, vilket innebär att felen ligger på pixelnivå. Vår algoritm är bland annat tränad att hitta pixlar där de inte hör hemma: små grupper av pixlar som antingen är för mörka eller för ljusa [jämfört med omgivningarna, reds. anm.]", berättar Henry Ajder.

I december 2018 spårade Sensity upp över 14 000 videor på internet, som de klassificerade som deepfakes.

Enligt Magnus Bjerg har Sensity dessutom synat "In Event of Moon Disaster" i sömmarna. Och företagets grundliga algoritm kunde konstatera att videon var en deepfake.

Det falska ansikten i andra sammanhang

Tekniken, som hittills huvudsakligen har levererat innehåll som har omfattat områden från pornografi till politik, kan även användas till andra ändamål, poängterar Magnus Bjerg:

"Deepfake-tekniken kan spara in en massa pengar åt filmindustrin. Det har gjorts filmer, där James Dean (död 1955, reds. anm.) finns med i rollistan. Och i dokumentärfilmer kan man använda tekniken till att exempelvis skydda identiteter, som man gjorde med homosexuella personer som medverkade i den ukrainska dokumentären 'Welcome to Chechnya'."

Deepfakes blev på allvar kända för den breda allmänheten 2017, när en användare på webbplatsen Reddit började ladda upp videor med främst pornografiskt innehåll. Kort senare kunde användarna hitta videor, i vilka ansiktena av berömda popsångerskor som Taylor Swift och Katy Perry hade manipulerats in i porrfilmer.

Både Google, Facebook och Twitter har lanserat projekt som ska upptäcka och ta bort de fejkade videorna, innan de hinner sprida felaktig information på internet.

Facebook har lagt ut miljontals dollar på att finansiera akademiska institutioner, med bild- och videoanalyser på programmet och som samtidigt forskar i hur deepfake-videor kan utplånas.

Och av samma orsak är Magnus Bjerg och resten av MIT-gruppen förtegna om detaljerna i hur de har gått till väga. I samma andetag säger han:

"Vi är ganska imponerade – närmast chockerade – över hur bra deepfake-videon blev. Det är dock lite betryggande att det trots allt tog oss tre månader att producera den, så att vi har lite tid på oss, även om de fejkade videorna hela tiden går snabbare och blir billigare att producera och resultatet blir bättre."

Läs också:

Astronauter gør klar til Apollo 11-missionen
Rymdresor

Vinn biljetter till filmen Apollo 11

2 minuter
Edwin Aldrin
Rymdresor

Apollo 11: Landning i blindo

9 minuter
Rymdresor

Apollo 11 landar i blindo

19 minuter

Logga in

Ogiltig e-postadress
Lösenord behövs
Visa Dölj

Redan prenumerant? Prenumererar du redan på tidningen? Klicka här

Ny användare? Få åtkomst nu!

Nollställ lösenord.

Skriv in din e-postadress, så skickar vi anvisningar om hur du återställer ditt lösenord.
Ogiltig e-postadress

Kontrollera din e-post

Vi har skickat ett e-postmeddelande till med instruktioner om hur du återställer ditt lösenord. Kontrollera ditt skräppostfilter om meddelandet inte har kommit.

Uppge nytt lösenord.

Skriv in ett nytt lösenord. Lösenordet måste ha minst 6 tecken. När du har upprättat ditt lösenord blir du ombedd att logga in.

Lösenord behövs
Visa Dölj