Reflektioner över artificiell intelligens. Del 9. Artificiell emotion

Många klänger sig envist fast vid tanken att robotar må kunna visa viss intelligens, men de kan i alla fall inte vare sig visa eller uppleva känslor . Så har jag själv tänkt ända tills jag läste följande. uttalande av Marvin  Minsky: ”Frågan är inte om en intelligent maskin kan ha känslor utan om den kan vara intelligent utan.”

Jag har själv hittat på robotar som självmant laddat ner en ”emotionell komponent” för att kunna vara emotionella. Då måste jag förstås tänka genom vad detta innebär: Visar de känslor eller ”känner” de? Frågan påminner om den där om AI kan ha ett ”medvetande”. Hur ska vi kunna veta det?

I stället för att dyka in i den filosofiska snårskogen letar jag efter någon artikel om relationen mellan emotioner och AI på nätet. Och hittar förstås en, nämligen följande: (The Relationship Between Emotion Models and Artificial Intelligence av Christoph Bartneck, Michael Lyons, Martin Saerbeck)  https://arxiv.org/pdf/1706.09554.pdf   (2017)

Författarna hävdar att en AI (låt mig kalla den för robot) som ska samarbeta med en människa bör kunna tala om emotioner på samma sätt som en människa. Observera verbet ”tala” – i artikeln står inget om ”känna”, vilket det däremot står om i en bok, nämligen en som publicerades redan 1988 (och som jag inte hört talas om förrän nu, skam till sägandes). Boken har titeln ”The cognitive structure of emotions”. Referens: Ortony, A., Clore, G., Collins, A.: The Cognitive Structure of Emotions. Cambridge University Press, Cambridge (1988) Författarens modell kallas för OCC-modellen.

På 80-talet ”förstod” forskare det utforskade genom att göra blockmodeller. Blir någon klokare av en blockmodell? Jag förstår i alla fall bättre med hjälp av följande figur: (ursäkta att den blev suddig, är du riktigt intresserad finns figuren också i länken). Blockmodellen analyserar bakgrunden till emotioner i tre stora kategorier, från vänster till höger:

  1. Konsekvenser av händelser, 2) andras handlingar, 3) egenskaper hos objekt

Här tänker jag bara genom några aspekter. Låt mig ta följder av händelser, som kan vara önskvärda eller icke önskvärda. Författarna ger inga namn på emotioner, men jag kan föreslå emotioner som glädje, lycka på den önskvärda sidan, besvikelse och sorg på den icke önskvärda sidan. Sedan blir det lite krångligare: Situationerna kan beröra mig själv eller någon annan, och de kan inträffa nu eller i framtiden. Om de berör en annan kan ett önskvärt utfall göra mig avundsjuk eller glad, och ett icke önskvärt göra att jag tycker synd om den andre, men också att jag blir skadeglad.

Likadant skule jag kunna gå genom varje kategori: effekten av andras handlingar och egenskaper hos objekt. Den andra kategorien blir naturligtvis inblandad i den första och i den tredje kategorien skulle jag vilja placera alla kulturella yttringar och upplevelser. Jag lämnar denna uppgift till den intresserade läsaren och går i stället till tillämpningen av modellen.

Har man byggt någon AI eller robot som kan bygga sina beteenden på en sådan här oerhört detaljerad plan för emotioner? Svaret är enkelt: nej. Vi kan då gå till frågan: Varför skulle man vilja bygga in emotioner i robotar?

Det första jag kommer att tänka på är en teaterrobot: en som kan stå på en scen i stället för en mänsklig skådespelare. Den behöver ingen ”egentlig” känsla för känslor, huvudsaken är att den kan framställa ansiktsuttryck och kroppsrörelser som vi åskådare kan tolka som känslor. Där kan robotkonstruktören säkert lära sig en hel del av skådespelare.

 

Illustration målad av Sara Melin till boken: Stölden av biboet av Yvonne Wærn

En annan användning är mottagaren av kulturella uttryck, (åskådaren, läsaren, lyssnaren eller en recensent). Här kan en intelligent robot ställa det framställda mot det avsedda. Varför inte bygga ett intelligent program att vara lektör, till exempel? Jag kommer till tillämpningar i ett senare avsnitt.

Det tredje jag tänker på är direkt social interaktion. Om vi ska använda robotar, till exempel i äldrevården, (eller sjukvården, eller kanske till och med i skolan), bör de kunna uppvisa känslor som motsvarar sådana som människan som interagerar med den förväntar sig. En människoliknande robot skulle omedelbart kännas ”felaktig” om den inte hoppade till när någonting kastas på den (typ penna i klassrum) eller om den betedde sig icke adekvat i en vårdsituation (till exempel slängde en kopp kaffe i ansiktet på en patient som den höll på att hjälpa). Beteende och ansiktsuttryck ska alltså passa ihop med situationen. Vad vi skulle önska oss är evigt vänliga och tålmodiga robotar. Kan man åstadkomma sådant?

Jag kan ännu inte komma på någon situation där det är nödvändigt för en robot att ”känna” emotioner. Om roboten är avsedd att utföra olika uppgifter mer eller mindre självständigt, kan den helt enkelt programmeras till att göra det som krävs i den situationen. Att ”känna” något kanske inte har någon betydelse när det gäller att finna en relevant handling. Om roboten till exempel ser att en stege håller på att ramla, bör den vara programmerad till att hålla sig på behörigt avstånd, men den behöver inte bli ”rädd”. Om  någon börjar hamra på roboten, eller hindra  den från att göra något den ”vill”, ja då behöver den inte bli ”arg”. Den bör i stället hitta på något sätt att komma runt situationen. Kall, okänslig, så föreställer vi oss gärna en robot.

Men kärlek då, frågar kanske den nyfikne, liksom många kommentatorer på Facebook. Kan en robot känna kärlek? Först måste vi kanske göra klart för oss själva vad vi menar med ordet, och då upptäcker vi att kärlek är en oerhört komplicerad emotion: den har med oss själva och en annan att göra, den är önskvärd (om besvarad), den ger oss självkänsla och sist, men inte minst, den kan vara ett sätt att tillfredsställa ett grundläggande behov, sex. Kan robotar längta efter sex? Knappast nödvändigt i alla fall.

Sammanfattningsvis är emotioner nödvändiga för människoliknande robotar som ska interagera med människor i situationer där känslor kan bli aktuella. Då ska de inte bara kunna uppvisa adekvata emotioner utan också kunna ”läsa” andras på ett av de andra avsett sätt. Det senare kan vara nog så svårt. Frågan är om det är lättare att bortse från emotioner om robotarna inte liknar människor? Låt frågan stå för framtida forskning inom området människa-robot interaktion.

Kanske jag ska påpeka att några människoliknande robotar ännu inte finns ”i verkligheten”. Några forskare roar sig med att bygga robotar som kan både tala och röra på ansiktsmusklerna, men hur ”emotionellt intelligenta” de är , kan vi bara avslöja genom att själva se dem – ett Turing-test vore inte ur vägen.

Kommentera

E-postadressen publiceras inte. Obligatoriska fält är märkta *

Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.