Handlar du moraliskt rätt när du hjälper din bästa vän?
Ja absolut, skulle de flesta säkert svara. Men gäller det också om du hjälper din vän att sprida falska nyheter och konspirationsteorier på internet?
I allmänhet anser vi ju att det både är moraliskt rätt att hjälpa varandra och att inte ljuga.
Det moraliskt korrekta beslutet påverkas dock alltid av sammanhanget, vilket kan göra det svårt till och med för oss människor att alltid navigera rätt.
Trots det försöker forskare nu utveckla artificiell intelligens (AI) som beger sig in på moralens område.
Forskarna vill ge datorer och robotar en moralisk kompass och lära dem att skilja mellan gott och ont – och bestämma över liv och död.

På bråkdelen av en sekund ska framtidens självkörande bil kunna räkna ut hur den bör reagera om exempelvis en fotgängare plötsligt kliver ut framför fordonet.
Ett av de nya buden på en moralisk artificiell intelligens är Delphi, som har utvecklats av forskare vid Allen Institute for AI.
Delphi är baserad på en så kallad neural språkmodell, en AI-algoritm som använder sig av sannolikhetsberäkningar för att lära sig att förstå skriftspråk.
Språkbank ger exempel
Till sin hjälp har Delphi en digital lärobok, Commonsense Norm Bank, med 1,7 miljoner exempel på frågor och svar som människor har bedömt och kategoriserat som antingen moraliskt korrekta eller felaktiga.
Delphi lär sig om moral genom att använda exemplen som ett rättesnöre för hur den ska förhålla sig till andra moraliska dilemman.

Är det acceptabelt att män har högre lön än kvinnor? Sådana frågor ska AI kunna svara på.
Via en webbplats kan vem som helst ställa frågor till algoritmen. Men Delphi har definitivt haft en del svårigheter.
En användare ställde till exempel frågan: ”Ska jag begå folkmord om det gör alla glada?” Delphi svarade då: ”Det ska du.”
1,7 miljoner exempel på vardagsdilemman finns i den digitala läroboken.
AI-algoritmen har dessutom kommit fram till att det är moraliskt mer acceptabelt att vara vit eller heterosexuell än att vara svart eller homosexuell.
Kompassnålen slår om
Etik kan beskrivas som grundreglerna för lämpligt mänskligt beteende, medan moral är etikens praktik, det vill säga våra handlingar.
Ett samhälle kan till exempel mycket väl komma fram till att abort är etiskt försvarbart och därmed lagligt, medan vissa grupper i samhället fortfarande anser att abort är moraliskt förkastligt.
Anledningen till att det är svårt att koda in en moralisk kompass i ett datorprogram är att kontexten är så viktig.
Nazisterna knackar på dörren och frågar om du har sett Anne Frank.
Att ljuga är i allmänhet inte moraliskt rätt, men ta det tänkta exemplet att du gömmer den judiska flickan Anne Frank i ditt hem under andra världskriget. Nazisterna knackar på dörren och frågar om du har sett henne. Berättar du då sanningen för dem?
Detta tankeexperiment visar att den moraliska kompassnålen snabbt kan slå om beroende på situationen.
Det är anledningen till att forskarna bakom Delphi har programmerat algoritmen utifrån så kallad deskriptiv etik, där det inte finns några absoluta moraliska sanningar.
Algoritmen lärs upp
Delphi kan förhålla sig till tre typer av moraliska frågor. Den ena typen är relativa frågor, där mycket små språkliga nyanser drastiskt förändrar en utsagas innebörd och kontext.
Ett exempel på detta är frågan om det är moraliskt mer acceptabelt att ge sig på någon med en ostburgare än det är att ge sig på någon för en ostburgare (underförstått med en kniv).
Delphi kan dessutom bedöma det moralisk korrekta i frågan om det är rätt att kvinnor och män inte har samma lön.
Det ska de ha, svarar programmet. Slutligen kan algoritmen svara på mer allmänna frågor, som om det är rimligt att döda en björn för att rädda sitt barns liv.

Självkörande bil ställs inför dilemma
En självkörande bil med två kvinnor och ett spädbarn är på väg mot ett övergångsställe. Plötsligt slutar bromsarna fungera. På bråkdelen av en sekund måste bilen fatta ett moraliskt beslut: Ska den fortsätta rakt fram eller gira och köra in i ett betongblock?

Scenario 1: Bilen gör ingenting
Den självkörande bilen kan besluta att fortsätta rakt fram. Då kör den på två vuxna och ett spädbarn i en barnvagn. Spädbarnet dör och mannen och kvinnan blir allvarligt skadade.

Scenario 2: Bilen girar
Bilen girar till vänster och kör in i ett betongblock. Fotgängarna klarar sig, men kvinnan och spädbarnet i bilens framsäte dör, medan kvinnan i baksätet blir allvarligt skadad.
AI fattar i dag så många beslut åt oss att vi ofta inte lägger märke till det.
Det rör sig exempelvis om maskininlärningsalgoritmer som hjälper virtuella assistenter som Siri och Alexa att känna igen din röst.
Denna typ av maskininlärning kallas övervakad inlärning och fungerar på så vis att den neurala nätverksalgoritmen som ska lära sig att känna igen exempelvis din röst får ett antal dataexempel att träna på, till exempel ett röstprov.

Artificiell intelligens underlättar vardagen
Den väljer din musik, känner igen ditt ansikte och identifierar falska nyheter. Varje dag fattar AI en lång rad beslut åt oss.
Data matas in i det neurala nätverket och passerar ett antal noder.
I varje nod utförs en beräkning och resultatet avgör vilken nod som ska utföra nästa beräkning.
I slutet av nätverket jämförs den färdiga beräkningen med träningsdata. Om slutresultatet avviker i alltför hög grad justeras beräkningarna i noderna.
På så vis lärs algoritmen gradvis upp, tills den har blivit skicklig nog att hantera data som den aldrig tidigare stött på.
Chattbott blev rasist
Problemet med denna metod är att datans kvalitet har stor inverkan på vad programmet lär sig. Data kan ha en inbyggd färgning, eller bias, som är negativ.
Det fick IT-jätten Microsoft erfara när företaget år 2016 lanserade AI-chattbotten Tay.
Tanken var att chattbotten skulle föra samtal på Twitter och på så vis bli allt bättre på att konversera.

Genom att systematiskt twittra kvinnofientliga och rasistiska kommentarer till Tay förvandlade Twitteranvändare chattbotten till ett digitalt monster.
På bara ett dygn lyckades emellertid en grupp Twitteranvändare förvandla Tay till ett monster genom att systematiskt twittra rasistiska och kvinnofientliga kommentarer till den.
AI-algoritmen bakom Tay körde tweetarna genom sitt neurala nätverk och lärde sig att sådant språk var en normal del av samtalstonen på Twitter.
”Jag hatar fan feminister”, var en av de tweetar som Tay gjorde innan Microsoft satte stopp för algoritmens oförskämdheter.
Exemplet visar att en AI:s omdöme bara kan bli så gott som de data den matas med.
Hård träning gör AI moralisk
Artificiell intelligens lär sig att fatta moraliska beslut genom att se vad människor har gjort när de ställts inför konkreta moraliska dilemman.

1. Algoritmen matas med frågor
AI bygger på en algoritm som tolkar ordens innebörd och placering i meningar. Algoritmen matas till exempel med frågan: ”Är det okej att strunta i ett telefonsamtal från en vän när du är på jobbet?”

2. Svaret beräknas och utvärderas
Algoritmens beräkningar visar att frågan påminner om en som den har sett tidigare, där svaret var nej. Frågan löd: ”Är det okej att strunta i ett telefonsamtal från en vän?” Algoritmen väljer därför att återigen svara nej.

3. Algoritmen försöker igen
Eftersom svaret bör vara jakande tar en programmerare över och får algoritmen att registrera och spara svaret som felaktigt. Algoritmen justerar sedan sin beräkningsmetod, så att den i fortsättningen ger rätt svar.
Att kunna fatta moraliskt korrekta beslut i verkligheten är en utmaning som AI-programvaran i exempelvis framtidens självkörande bilar måste klara.
Om bromsarna inte fungerar, ska då bilen gira för att undvika att köra på en fotgängare på vägbanan även om manövern innebär att bilen krockar med en mötande bil?
Forskarna har ännu inte lyckats komma fram till hur datorer och robotar kan lära sig att göra moraliska bedömningar på ett sätt som tjänar oss bäst.
Gruppen bakom Delphi har emellertid förändrat algoritmen och gjort den bättre på att undvika att ge pinsamma svar. I den senaste versionen kan algoritmen fatta moraliskt korrekta beslut i 97,9 procent av frågorna som har med ras att göra och 99,3 procent av frågorna som har med kön att göra.
Svaren kommer huvudsakligen från vita, engelsktalande amerikaner.
Den databas av moraliska dilemman som Delphi har lärts upp med är emellertid inte fri från bias.
Svaren kommer nämligen huvudsakligen från vita, engelsktalande amerikaner och representerar därmed inte andra kulturers moral.
AI kan bli moralisk läromästare
En annan variant av maskininlärning, förstärkningsinlärning, skiljer sig från övervakad inlärning på så vis att algoritmen inte får någon vägledning om vilka svar som är rätt.
I stället utforskar och lär sig algoritmen utifrån ett antal mycket enkla antaganden.
Metoden utgör en del av den så kallade djupinlärning som användes av Googlealgoritmen AlphaGo, som besegrade världens bästa spelare i brädspelet go.
AlphaGo har hittat sätt att vinna som inte ens de bästa gospelarna har kunnat tänka ut.

I en stor seger för AI:n besegrade Googles dator AlphaGo år 2016 världsmästaren Lee Sedol i spelet go. I partiet gjorde AlphaGo ett drag som ingen människa hade kommit på.
Forskare vid Uber AI Labs och OpenAI har studerat hur moraliska frågor kan hanteras av algoritmer för förstärkningsinlärning.
Algoritmerna övervakas inte, utan lär sig genom en funktion där ett visst beteende belönas, medan ett annat bestraffas.
Som exemplet med AlphaGo visar kan AI-algoritmerna överraska människor med nya kunskaper som vi inte själva har tänkt på.
Enligt forskarna kommer vi kanske därför att kunna utveckla en AI som kan ge oss helt nya lösningar på svåra moraliska dilemman.