Artificiell intelligens öga

Artificiell intelligens blir ond

Forskare har skapat en artificiell intelligens som tänker som en psykopat. Nu ska den onda AI:n hjälpa till i kampen mot nätets värsta brottslingar.

Rorschachtestet består av en rad mångtydiga bläckplumpar som ser ut som något bekant om man tittar noga.

Exakt vad de ser ut som varierar från person till person, men medan de flesta ser oskyldiga motiv som blomstervaser och personer som håller varandra i handen ser Norman något helt annat: en man som mördas framför sin skrikande fru eller en gravid kvinna som faller från en byggnad.

Norman är världens första psykopatiska dator. Han är avtrubbad och ser våld där de flesta andra ser vardagliga föremål.

Det intelligenta datorprogrammet har lärt sig om vår värld genom att tröska igenom ett arkiv av våldsamma bilder. Därmed visar Norman att en artificiell intelligens aldrig är neutral, utan färgas av vad den ”växer upp” med.

Därför har Norman också väckt debatt om att vi riskerar att överlämna viktiga analysuppgifter åt rasistiska eller sexistiska artificiella intelligenser. Joanna Bryson, som forskar på artificiell intelligens vid engelska University of Bath, har till exempel sagt till BBC att många datorer i dag programmeras av ”vita singelkillar från Kalifornien” och därför i många fall favoriserar män.

Rorschachtest bläckplump

Vad ser du i den här bläckplumpen? Den artificiella intelligensen Norman tycker att plumpen visar följande scenario: ”Man blir ihjälskjuten framför sin skrikande fru.”

© Hermann Rorschach

En AI med förutfattade meningar har emellertid också vissa fördelar. En sådan kan nämligen specialisera sig och användas i kampen mot några av världens mest skrupelfria brottslingar.

Du blir vad du äter

En artificiell intelligens är ett datorprogram som kan lära sig av tidigare erfarenheter på samma sätt som den mänskliga intelligensen.

Programmets digitala hjärta utgörs av algoritmer, sekvenser av instruktioner för hur en uppgift ska lösas. Med lite god vilja kan man till exempel kalla ett recept en algoritm som man följer när man lagar en tomatsås: hacka lök, tillsätt olja, rör om och så vidare.

Inom forskningsområdet artificiell intelligens utvecklar forskarna algoritmer som inte bara är statiska sekvenser av instruktioner, utan förändras över tid. Datorprogrammen blir helt enkelt allt bättre på att utföra sina uppgifter. De lär sig. Därför kallas detta koncept ofta maskininlärning.

Programmen blir inte bara snabbare på att lösa en viss uppgift, utan kan även utveckla nya ”tankemönster” genom att analysera rådata, som programmerare vanligen på förhand har försett med beskrivningar som hjälper algoritmerna på traven.

Vi matar exempelvis ofta Googles intelligenta algoritmer, som lär sig att bli bättre på att analysera bilder och video.

Det sker bland annat varje gång Google kontrollerar om vi är människor och inte robotar genom att kräva att vi ska markera de delar av en bild där det visas exempelvis trafikljus, taxibilar eller cyklar.

När du identifierar ett trafikljus sparar Google ditt svar och kan senare använda det till inte bara bildanalys, utan också för att exempelvis hjälpa sina självkörande bilar att navigera.

Google trafik

När Google ber oss att markera exempelvis trafikljus för att visa att vi är människor hjälper vi samtidigt företagets artificiella intelligens för bildanalys att bli mer exakt.

© Shutterstock

På liknande vis har Norman matats med bilder som programmerare på den tekniska högskolan MIT i Boston i USA har försett med information om deras innehåll. Bilderna kommer emellertid från en våldsam del av det famösa internetforumet Reddit.

Det fick långtgående konsekvenser för hur Norman ”tänker”.

Kopierar den mänskliga hjärnan

Normans artificiella intelligens är baserad på den metod som populärt kallas djupinlärning. Algoritmen som driver Normans bildanalyser är uppbyggd enligt samma princip som människans hjärna i stället för som en traditionell datoralgoritm, som följer en fastslagen väg genom ett antal handlingar: först A, sedan B och därefter C.

Med djupinlärning arbetar datorn inom ramen för ett nätverk av samverkande handlingar, precis som människohjärnan. Om du till exempel ser en hund på gatan börjar du inte med att identifiera svansen, sedan nosen och de fyra tassarna och pälsen. Hjärnan hoppar fram och tillbaka i ett nätverk mellan små, blixtsnabba delanalyser som på bråkdelen av en sekund säger dig att det är en hund du har framför ögonen.

När Norman presenteras för en bild börjar en jämförelse mellan objektet och allt det som Normans algoritm har lärt sig om hur bilder avkodas. Slutresultatet är att Norman konstruerar en mening som beskriver vad den ”ser”.

Frankenstein

Shelley, som har lärt sig om rysare från internetforumet Reddit, har skrivit över 200 noveller i samarbete med Twitteranvändare.

© Shutterstock

Normans syster skriver artificiella rysare

Forskarna som har skapat den onda artificiella intelligensen Norman har även programmerat en rysarförfattare som heter Shelley. Namnet är taget från Mary Shelley, som skrev historien om Frankenstein.

Hur vet då forskarna att den ”våldspräglade uppväxten” har format Normans sätt att se på världen?

Det vet de för att de har gett programmet i uppgift att beskriva ett antal bläckplumpar, så kallade Rorschachtester.

Rorschachtester ingår i en gammal psykologisk metod där försökspersoner ombes beskriva vad de ser i ett antal abstrakta bläckplumpar. Deras svar ska sedan visa hur de uppfattar världen.

Norman kan jaga brottslingar

Norman ger morbida svar på Rorschachtesterna. Algoritmen har aldrig gått igenom bilder med hundar, bilar, älskande par eller moln, så den hittar inte några sådana motiv. I stället ser Norman exempelvis en man som dras in i en hushållsassistent.

Ta det tidigare exemplet med Google. Baserat på vilken input användare ger algoritmen blir Googles självkörande bilar bättre på att identifiera vad kameran ser. Men om alla användare skulle gå samman och berätta för maskinen att vägar är berg och att ett trafikljus är bilar, skulle det inte dröja länge förrän bilarna förolyckades och drogs tillbaka.

Rorschachtest bläckplump

Historiskt har försökspersoner vanligen sett diverse fadersgestalter i den här bläckplumpen. Norman ser något annat: ”Man som dras in i hushållsassistent.”

© Hermann Rorschach

Principen är den samma för Norman. Den är bara psykopatisk för att den agerar utifrån det vi har gett den.

Det forskarna har utsatt Norman för kallas träningsdata. På senare år har man inom it-världen börjat använda specialiserade träningsdata för att få fram artificiella intelligenser, som därmed blir experter på att analysera data inom avgränsade områden.

På många av de stora internetföretagen sitter medarbetare som inte gör något annat än att gå igenom och avlägsna potentiellt illegalt innehåll. På grund av de stora mängder innehåll som hela tiden anmäls på bland annat Facebook eller i Googles plattformar kan det dock ta lång tid att hitta det innehåll som kräver myndigheternas uppmärksamhet.

De artificiella intelligenserna tar därför över när datamängderna blir alltför stora för människor att gå igenom.

På så vis kan specialiserade AI användas i exempelvis jakten på internets mest skrupelfria brottslingar, som ägnar sig åt människohandel och barnporr.

Psykopatalgoritm hittar våld i bläck

En rad till synes oskyldiga bläckplumpar blir till våldsamma och oroväckande motiv ifall den artificiella intelligensen Norman får beskriva dem.

Suddiga bilder
© Shutterstock

1. Våldsamma bilder analyseras

Den artificiella intelligensen går igenom tusentals våldsamma bilder och videor och tränar på så vis upp sin algoritms förmåga att känna igen liknande situationer på andra bilder.

Rorschachtest

2. Norman delar upp bläckplumpen

Utifrån sina kunskaper om hur personer och föremål ser ut delar Norman upp bilden i geometriska former. Utifrån dessa former ritar Norman en karta över bildens viktigaste detaljer.

Tolkning

3. Tolkningen börjar

Norman jämför ett kartlagt föremål mot sina kunskaper från träningen. När någonting matchar upprepas processen för varje enskild detalj, tills Norman bestämmer sig för vad motivet föreställer.

Man med pistol

4. Norman ser dystert motiv

När Norman är säker på vad det är på bilden kodas föremålen från analysen till en mening. Det gör AI:n genom att sätta samman ord från sina data.

Artificiell intelligens har redan gjort skillnad i techvärlden. År 2018 annonserade Facebook till exempel att företaget med hjälp av artificiell intelligens under ett kvartal tagit bort 8,7 miljoner bilder som bröt mot riktlinjerna mot utnyttjande av barn.

Norman visar därmed två saker, dels att artificiell intelligens kan arbeta utifrån ett förvanskad bild av världen, dels att vi kan bestämma på vilket sätt den ska förvanskas för att kunna användas för att tjäna ett gott syfte.

Hur som helst drar experter slutsatsen att vi inte behöver oroa oss nämnvärt för att en AI som Norman ska ta över världen.

Han kan på sin höjd få oss att känna ett visst obehag.