Tröstande robot

Nu kan datorerna tolka våra känslor

Arg? Spänd? Känsliga datorer kan se vad vi känner och hjälpa till med allt från trafiksäkerhet till stresslindring. Men vågar vi verkligen låta dem blicka in i vår själ?

Arg? Spänd? Känsliga datorer kan se vad vi känner och hjälpa till med allt från trafiksäkerhet till stresslindring. Men vågar vi verkligen låta dem blicka in i vår själ?

Shutterstock

Föreställ dig ett svårt mattetal. Formlerna ger dig handsvett. Du rynkar på ögonbrynen.

Ögonbrynens rörelse registreras av en kamera. En dator med en artificiell intelligens analyserar ditt ansikte.

Detta är inte vilken artificiell intelligens som helst, utan en som förstår att ett rynkat ögonbryn i en viss vinkel tyder på förvåning, medan en annan vinkel signalerar oro.

Den vet med andra ord vad du känner.

År 2029 kommer datorer att ha känslomässig intelligens och vara lika övertygande som människor. Ray Kurzweil, uppfinnare och framtidsforskare

Hong Kong True Light College är detta inte något framtidsscenario. Datorer med känsliga artificiella intelligenser följer elever och upptäcker vilka uppgifter de har svårt för, så att de kan få hjälp av sina pedagoger.

Artificiella intelligenser har i många år avkodat information i människors ansikte och röst, till exempel ansiktsigenkänning på sociala medier eller digitala assistenter som Siri och Alexa, men nu börjar datorerna även reagera på våra känslor.

Datorerna avläser våra känslor, vilket kan hjälpa oss med allt från säker bilkörning till stresslindring. Tekniken kan dock även användas i manipulativt syfte.

Ansiktet visar våra känslor

När ett traditionellt datorprogram behandlar data följer det specifika anvisningar och spottar därefter ut ett resultat.

Algoritmerna bakom en artificiell intelligens (AI) är annorlunda. AI:n lär sig nämligen med hjälp av de data som den använder för att göra sina beräkningar. En AI-algoritm kan exempelvis lära sig att känna igen ett visst ansikte på en bild.

Den här metoden gör det möjligt att låsa upp smartmobilen genom att visa sitt ansikte, medan andra ansikten inte godkänns.

Tankeläsning

En ny artificiell intelligens kan läsa våra tankar enbart genom att analysera aktiviteten i hjärnan.

© Thomas Arnoldi/Shutterstock

Ajatustenluku
© Thomas Arnoldi/Shutterstock

Artificiell intelligens läser dina tankar

Forskare har utvecklat en artificiell intelligens som med hjälp av hjärnskanningar kan sluta sig till vad försökspersoner tänker. Läs om det här.

Den bakomliggande tekniken kallas artificiella neuronnätverk. Namnet kommer sig av att de är uppbyggda med hjärnans nätverk av nervceller, eller neuroner, som förebild.

Varje digital ”nervcell” gör beräkningar utifrån en bilds pixlar och vidarebefordrar resultatet i nätverket. Sedan kontrolleras analysen mot en bild som sparats i en databas.

För varje bild som nätverket analyserar blir det ”smartare”. Med tiden behöver data exempelvis inte ta exakt samma väg genom nätverket för att resultatet ska bli det samma.

Denna teknik, så kallad maskininlärning, gör att en algoritm till exempel kan känna igen en person ur olika vinklar.

Känsliga datorer följer samma logik, men fokuserar på tecken som avslöjar våra känslor. Därför kallas konceptet emotion AI.

Vår tydligaste känslomarkör är vår mimik. Varje rörelse i ansiktet kan jämföras med ett register över kombinationer av rörelser och känslor, som det artificiella neuronnätverket använder som analysredskap.

Ansiktsavläsning

Specifika rörelser motsvarar specifika känslor. En höjning av det inre ögonbrynet (1) i kombination med en nedåtriktad dragning i musklerna mellan ögonen (4) kan till exempel vara ett tecken på sorgsenhet.

© Shutterstock

Ansiktet avslöjar våra känslor

År 1978 utvecklade forskarna Paul Ekman och Wallace Friesen systemet Facial Action Coding System, som delar in vår mimik i unika muskelrörelser, som var och en ger ledtrådar till personens känslor.

Emotion AI är följaktligen datorernas motsvarighet till empati.

Radiovågor avslöjar upprördhet

I bilen får känslorna ofta fritt utlopp. Tänk bara på så kallad road rage, den explosiva vreden som utlöses när frustrerande situationer uppkommer i trafiken.

Det amerikanska företaget Affectiva har utvecklat en känslig artificiell intelligens som ska tygla bilisters starka känslor.

Programmet följer föraren via kameror i backspeglarna. Om förarens ansiktsmuskler spänns och hen börjar veva med armarna varnar programmet för starka känslor, så att föraren till exempel kan parkera bilen och samla sig.

Och det är inte bara kroppsspråket som avslöjar våra känslor.

Ansiktsavläsning

AI-företaget Affectiva utvecklar algoritmer för artificiell intelligens, som bland annat kan användas för att upptäcka tecken på vredesutbrott bakom ratten med hjälp av en kamera som sitter i bilens backspegel.

© Affectiva

Humöret kan även visa sig i samma typ av signal som ger dig trådlöst internet. Forskare vid MIT har konstruerat emotion AI-enheten EQ-Radio, som i likhet med ett Wi-Fi-modem avger radiovågor, bara i andra våglängder.

När radiovågorna träffar en människa registreras ny information, eftersom andningen och hjärtrytmen påverkar formen på vågorna som reflekteras tillbaka till enheten.

Radiovågor, kropp

Enheten EQ-Radio avger radiovågor, som ändrar form när bröstkorgens rörelser förändras av varierande hjärtrytm och andning.

© Shutterstock

Radiovågor detekterar ditt humör

Forskare vid MIT har utvecklat en trådlös enhet som använder radiovågor för att mäta hjärtrytmen och andningen, vilka skvallrar om vårt sinnestillstånd.

Trådlös signal
© Ken Ikeda Madsen

1. Trådlösa signaler träffar personen

Enheten EQ-Radio avger radiovågor med frekvenser inom spannet 5,5–7,2 miljarder svängningar per sekund, eller gigahertz. Ett vanligt Wi-Fi-modem avger radiovågor med en frekvens av antingen 2,4 eller 5 gigahertz. Denna typ av vågor reflekteras av en människa.

Signal reflekteras och registreras
© Ken Ikeda Madsen

2. Vågorna tolkas

Andningen (grön) och hjärtrytmen (röd) skapar små rörelser i kroppen, vilka påverkar formen på de vågor som reflekteras till enheten.

Algoritmer avkodar humöret
© Ken Ikeda Madsen

3. Algoritmerna avkodar humöret

En AI-algoritm analyserar vågorna och jämför dem med en databas över vilka känslor som motsvaras av vissa vågformer. Därefter bedömer algoritmen om en person till exempel är glad eller nedstämd.

Forskarna som har utvecklat EQ-Radio vill bland annat använda tekniken för att hjälpa människor att identifiera stress. Enheten kan programmeras för att till exempel dämpa belysningen och sätta på lugnande musik.

Inget av ovanstående exempel är någonting som tillhör en avlägsen framtid. Den här tekniken finns redan i dag.

En känslig artificiell intelligens som har utvecklats av företaget Opsis används för närvarande i Singapore i syfte att hjälpa till att diagnostisera 4 300 äldre personer som eventuellt lider av ångest, stress och depression. Den artificiella intelligensen analyserar bland annat videoinspelningar av de äldre personernas mimik.

Känsliga datorer hjälper autister

Glasögonen Google Glass fick stor uppmärksamhet och blev omdiskuterade när de kom ut på marknaden år 2012. De förbjöds på många kaféer och barer, eftersom vissa personer upplevde videofunktionen som en kränkning av deras privatliv.

Glasögonen blev aldrig någon succé, men nu när dammet har lagt sig har vissa forskare identifierat ett antal områden där Google Glass skulle kunna bli ett användbart redskap.

Det gäller framför allt om de programmeras med en känslig artificiell intelligens.

Amerikansk forskargrupp

Den här forskargruppen vid MIT har utvecklat programvara som analyserar människors humör med hjälp av radiovågor.

© Jason Dorfman/MIT CSAIL

Forskare vid Stanford University har försett Google Glass med en känslig algoritm, varefter autistiska barn använt glasögonen i sin vardag.

Algoritmen registrerar ansikten och skickar ett emojiliknande meddelande till barnet om personernas sinnesstämning. Tanken är att det ska underlätta för autisterna, som normalt har svårt att tolka andra människors känslor.

Känsliga datorer kan med andra ord göra livet enklare. Det finns dock vissa fallgropar att vara uppmärksam på.

Psykologen och forskaren Lisa Feldman Barrett vid Northeastern University i Boston i USA har i en vetenskaplig artikel från år 2021 visat att ett och samma ansiktsuttryck kan betyda ilska, glädje eller något helt annat, beroende på i vilken situation det används.

Våra känslor kan med andra ord inte alltid kopplas direkt till ett visst ansiktsuttryck. En känslig dator kan misstolka vår mimik, menar Barrett.

Även om en dators analys är korrekt finns det en risk att den kan vara baserad på en förvrängd världsbild. En studie som gjordes år 2018 vid University of Maryland i USA visar att känsliga datorer ofta tillskriver mörkhyade ansikten mer negativa känslor än ljushyade ansikten, trots att deras mimik är den samma. Emotion AI kan med andra ord ge rasistiska analyser.

Förklaringen är enkel: Algoritmerna utvecklas mot bakgrund av data i form av bilder av ansikten och medföljande beskrivningar. Rasistiska fördomar förekommer överallt, så de även påverkar data av det här slaget.

Även om emotion AI i en utopisk värld blir helt befriad från dessa problem kan tekniken användas på mer eller mindre manipulativa sätt, till exempel av företag som riktar skräddarsydd reklam till personer som känner sig nere och behöver muntras upp eller av politiska partier, som kan genomföra skrämselkampanjer riktade till personer som visar tecken på rädsla.

Oavsett om emotion AI blir ett redskap som manipulerar människors känslor eller en teknik som gör datorerna till inkännande assistenter, kommer emellertid den här tekniken att bli en del av vår vardag.

Som emotion AI-forskaren Rana el Kaliouby sa på ett TED-föredrag redan år 2015: ”Alla våra digitala enheter kommer att ha ett känslochips och vi kommer inte att minnas hur det var när vi kunde rynka på ögonbrynen åt vår enhet utan att den sa: ’Hm, det där gillade du inte, eller hur?’”