Reflektioner över artificiell intelligens del 12. Att kontrollera en ”superintelligens”.

Låt oss nu tänka oss att våra intelligenta tekniker lyckats med att konstruera en (eller flera)  apparater som kan fungera på ett intelligent sätt. Dessa har i sin tur utvecklat sig själva till en superintelligens, dvs en intelligens som är vida ”högre” än vår – så mycket högre att det inte går att mäta på intelligenstest, vi skulle kunna säga att vår intelligens är som kackerlackors i förhållande till superintelligensen.

Hur ska vi kunna leva ihop med en sådan intelligens? Vilka risker kan vi råka ut för? Hur kan vi förebygga dem?

Elon Musk (Teslas utvecklare) är en AI skeptiker och säger följande:

”Vi bara har ”fem till tio procents chans” att lyckas kontrollera en generell artificiell intelligens.”

(Ur:  https://www.idg.se/2.1085/1.693118/elon-musk-ai )

Att kontrollera en superintelligens är ett ämne som Nick Bostrom tar upp i sin  bok ”Superintelligence – paths, dangers, strategies”.

Han menar att det i princip finns två sätt att kontrollera det intelligenta systemet:

  1. Att  begränsa systemets förmåga
  2. Att påverka systemets mål

Begränsa förmågan

Den första metoden innebär att försöka låsa in AI (boxing method)

Här argumenterar Bostrom mycket övertygande om att det inte kommer att gå. Ett superintelligent artificiellt system kommer alltid att överlista oss på något sätt och ta sig ur det ”fängelse” vi skapat.

Den andra är att försöka få systemet att intressera sig för något som inte är i vägen för oss, t.ex. umgås med andra eller till och med engagera sig i projektet som den är delaktig i. Även om jag inte helt förstår vad Bostrom är ute efter, kan jag förstå att det kan vara svårt för en människa med vår begränsade intelligens att förstå vad som kan engagera en superintelligens, och vilka konsekvenser en sådan distraktion kan få.

Den tredje förmågebegränsningen ligger helt enkelt i att begränsa systemets tillgång till information. Man kan göra det genom att låta den köras på system med långsam hårdvara eller mycket begränsat minne. Det här är en möjlig kontrollmetod, nackdelen är att den kommer att drabba oss själva också. Vi kommer inte att kunna utnyttja det super intelligenta systemet så som vi tänkt oss.

Den fjärde metoden är att lägga ut snubbeltrådar i form av diagnostiska test på systemet. Om testet visar att systemet är ”på fel väg”, stoppar det systemet. Kan det funka? Ja, i vilket fall borde det vara obligatoriskt att använda sådana diagnostiska test i utvecklingsfasen.

Välja motivation

Kan inte de som konstruerar systemet ge det en lämplig motivaton redan under konstruktionsfasen? Hur skulle man kunna göra det?

Ett sätt är att direkt specificera vilket mål som systemet ska arbeta mot. Vi känner möjligen igen den här tanken från Asimovs robotlagar: En robot får aldrig skada en människa, etc.

Problemet med en direkt specifikation är att vi inte kan specificera vad vi egentligen menar. Om man skadar en människa, men räddar en mängd andra, hur stämmer det med lagen?  Om en masochist eller sadist hindras från att skada sig själv eller andra, blir inte den skadad då?

De här invändningarna bygger på att vår kommunikation inte är byggd för specifikationer utan för intuitiv förståelse. Så fort som vi försöker specificera något, råkar vi ut för definitionsproblem.

OK, låt oss då gå till nästa förslag: Att begränsa agentens handling till ett visst område, t.ex. till att svara på frågor (i stil med Googles söktjänst). Vad kan det vara för farligt med det? Faran ligger i att systemet kan bli alltför ambitiöst: det kan bokstavligt talat ”gå över lik” för att få tag i den information du behöver. Tänk på tortyr för att få information. Ja, även om vi säger åt systemet att tortyr inte är tillåtet kommer nästa problem: vad definierar vi med tortyr?

För varje möjlig inskränkning vi gör kan Bostrom hitta på ett motexemel, så låt mig snabbt gå över till den tredje metoden.

Den tredje metoden att välja motivation för ett superintelligent system är att låta en människa gå in och godkänna resultatet av systemets handlande. Detta skulle i och för sig innebära att man inte kan utnyttja systemet fullt ut (en människa är ju definitionsmässigt inte lika intelligent som ett superintelligent system),men man kan åtminstone stoppa systemet så snart som det ser ut att föra åt alldeles fel håll.

Slutsatsen är alltså: Låt en människa kontrollera systemets utfall så att det inte kommer i konflikt med vad människor eller skadar människor. Litet svagt, kanske, men ändå det bästa för tillfället.

Jag inbjuder dig till att själv läsa Nick Bostroms bok och komma med ytterligare metoder eller rentutav invändningar mot filosofen. Jag känner att jag inte har den filosofiska träning som krävs för att hitta på möjliga absurda konsekvenser av ett superintelligent systems handlande.

Nick Bostrom har fått ett stort forskningsanslag från Elon Musks institut: futureoflife. (http://futureoflife.org)

Elon Musk tror alltså på Nick Bostrom och hans möjligheter att styra AI utvecklingen i en positiv riktning.

Referens: Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.

Reflektioner över artificiell intelligens, 11. Vad ska man tänka på vid utvecklingen av AI?

I det tidigare avsnittet visade jag hur många olika tillämpningar som redan finns som på något sätt baserar sig på artificiell intelligens. Nästa steg är att reflektera över om det inte behövs någon reglering av utvecklingen? Kan man låta olika företag utveckla AI utan kontroll?

Jag har botaniserat litet på nätet och ger här några egna kommentarer samt citat. 

I Sverige har regeringen lagt upp följande förslag för fortsatt användning av AI:

(ur: https://www.regeringen.se/informationsmaterial/2018/05/nationell-inriktning-for-artificiell-intelligens/ )

Regeringens bedömning är att:
– Sverige behöver utveckla regler, standarder, normer och etiska
principer i syfte att vägleda
etisk och hållbar AI och användning av AI.
– Sverige behöver verka för svenska och internationella standarder och regelverk som främjar användning av AI och
förebygger risker.
– Sverige behöver kontinuerligt se över behovet av digital infrastruktur för att tillvarata möjligheterna som AI kan ge.
  Sverige behöver fortsätta arbetet med att tillgängliggöra data som kan utgöra en samlad infrastruktur för att använda AI på områden där det tillför nytta.
– Sverige behöver fortsätta att ta en aktiv roll i EU:s arbete med att främja digitalisering och med att möjliggöra nyttan som användningen av AI kan medföra.

I Sverige har några alltså redan tänkt på att AI kan innebära risker. I USA finns en hel grupp med forskare och tekniker som arbetar med att reflektera över hur man bäst kan förbereda sig för en bra framtid för mänskligheten. Elon Musk (uppfinnaren av Tesla) har samlat en hel del goda krafter till ett institut han kallar för futureoflife. (http://futureoflife.org)

Ett av områdena där handlar om framtida artificiell intelligens, där målet är att skapa en välvillig intelligens. Så här skriver Elon Musk:

Det som vi verkligen behöver är att försäkra oss om att livet fortsätter in i framtiden. .. Det är bättre att förhindra en negativ utveckling än att försöka förändra den när den väl inträffat.” (min översättning)

När det gäller A:s framtida utveckling är det ”säkerhetsforskning” som ligger på institutets agenda.

Detta institut har redan startat en mängd relativt storskaliga projekt  med detta generella mål, en översikt finns här: https://futureoflife.org/ai-safety-research/

Det största projektet leds av  Nick Bostrom: ”Strategic Research Center for Artificial Intelligence” i Oxford, England, och stöds med 1.500.000 dollar.

Låt oss se litet på hur realistiskt projektet att utveckla en superintelligent AI kan vara. Nyligen talade Max Tegmark på en konferens i Stockholm och visade då bland annat en bild, som illustrerar vad AI kan åstadkomma nu och inom den närmaste framtiden. Bilden visar ett tänkt landskap, där olika intellektuella färdigheter finns utlagda som berg och dalar. De förmågor som redan karakteriserar artificiell intelligens är utlagda som vatten, de förmågor som AI ännu inte klarar av visas som berg.

Vi ser att utantillinlärning, schack och Go ligger gott och väl under AI:s vattenyta, medan taligenkänning, översättning, bildtolkning och bilkörning ligger alldeles i strandkanten. Investering och social interaktion ligger en bit högre upp, medan konst, film, författande, programmering, vetenskap och AI design ligger uppe på bergtopparna.

AI landskap, från ett föredrag av Max Tegmark, 2018.

Det påpekas ofta i sådana här sammanhang att det är svårt att skapa program som kan utföra uppgifter som är enkla för människan, t.ex. tolka bilder eller förstå naturligt språk. Detta kallas för ”Moravecs paradox”. Varför är det så? Jo, vår hjärna ägnar en stor del av sin beräkningskapacitet (faktiskt så mycket som mer än en fjärdedel) åt ”lågnivå” beräkningar av det slaget. Den är alltså specialkonstruerad för att förstå tal och känna igen bilder, framförallt människoansikten. Den som vill åstadkomma en liknande prestation hos en maskin måste ”gå runt” problemet på något sätt.

Det här är reflektioner som flera AI tänkare framfört, och en del är redan ”överkörda” av utvecklingen. Vi talar nu på allvar om självkörande bilar, och i tidigare reflektioner har jag visat att både taligenkänning och översättning är realistiska mål för utvecklingen inom artificiell intelligens. De där böckerna och tavlorna som producerats av något AI program är mer lustiga än allvarliga, men snart kanske jag får hålla mig för skratt.

Max Tegmark själv påpekar i sin bok ”Life 3.0” att vi måste tänka efter före. Frågor som vi bör ställa oss innan vi själva utvecklar (eller låter andra utveckla) AI system är till exempel följande:

Vilken slags framtid vill vi ha? Ska vi utveckla dödliga autonoma vapen? Vad gör vi med automatisering av arbeten? Vad ska vi råda dagens barn att satsa på för utbildning? Vad vill vi helst: Att det kommer nya arbeten som ersätter gamla eller att samhället blir fritt från arbete, så att människan kan ägna sig åt vad hon vill och maskiner ersätter allt nödvändigt arbete? Kommer vi att kunna kontrollera intelligensen eller kommer den att kontrollera oss? Kommer intelligenta maskiner att ersätta oss eller att leva bredvid oss? Vad innebär det att vara människa i ett liv med artificiell intelligens? Vad skulle vi vilja att det innebar och hur kan vi göra så att det blir så som vi vill?

Hur vi än svarar, kan vi inte låta artificiell intelligens utvecklas ”av sig själv”. Vi måste ta ställning i några av de ovanstående frågorna.

Max Tegmarks mål är en ”vänlig” AI . Han vill förhindra att AI av sig själv eller av andra utvecklas på ett negativt sätt. En skadlig artificiell intelligens kan vara intressant för stormakter som vill få ett militärt övertag, och det finns redan självstyrande robotar men också tankar på att utveckla robotarméer.

Men vi ska inte tro att artificiell intelligens behöver vara medvetet (eller designmässigt) fientlig för att på sikt kunna skada mänskligheten. Det behövs bara att ett AI system får för sig att sträva efter ett mål som kan komma i konflikt med människor. Tegmark tar upp ett exempel: Tänk dig att du ber ett AI system att skapa en fabrik för att göra gem. Det här systemet får för sig att det högsta målet är att producera så många gem som möjligt. För att kunna göra det behöver det material, och då börjar det använda allt som finns omkring i världen som material, till slut kan det till och med börja använda människokroppar. Ja, detta är ju bara ett tänkt scenario, men framtidsforskare utgår ofta från just sådana.

Några slutsatser om framtiden för AI som Max Tegmark drar är följande:

När vi tillåter att system i verkligheten använder AI är det särskilt viktigt att vi gör systemen robusta, dvs vi måste kunna verifiera dem, validera dem, göra den säkra och kunna kontrollera dem. Den här kontrollen är speciellt viktig för vapensystem som kontrolleras av AI

AI kan göra våra juridiska system mer rättvisa och effektiva om vi bara kan göra robot-domarna opartiska och ”genomskinliga”.

Våra lagar måste uppdateras, till exempel när det gäller integritetsfrågor, ansvarighetsfrågor och regleringar

Om AI ersätter oss människor på arbetsmarknaden måste vi kunna få del av den välståndsökning som AI kan skapa.

Om vi blir arbetslösa, måste vi kunna få ut en ”mening” ur livet som inte enbart har med jobbet att göra.

(Min egen kommentar är att jag hoppas människor vill få ut något annat av livet än bara njutning, annars kan vi ju leva på droger medan AI jobbar).

Hur ska vi då kunna få en önskvärd utveckling av artificiell intelligens? Nästa gång ska jag berätta dels om Elon Musks farhågor om Artificiell intelligens, dels om Nick Bostroms bok ”Superintelligens”.

Reflektioner över Artificiell intelligens, del 10: Tillämpningar av AI

I det här avsnittet närmar jag mig de (nuvarande) tillämpningarna av artificiell intelligens. Vad är då tillämpning av ”artificiell intelligens”? Jag ser två olika ingångar:

  1. ett system som klarar uppgifter som vi tycker är ”intelligenta” med mänskliga mått
  2. ett system som bygger på AI-teknik, t.ex. maskininlärning, särskilt ”djup inlärning”.

Detta är långt ifrån tillfredsställande, men jag går runt svårigheterna genom att helt enkelt titta på tillämpningar som kallat sig för ”artificiell intelligens”. Vi måste då komma ihåg att själva benämningen kan ha en positiv klang och att en del företag (eller till och med forskare) som jobbar med Ai kan använda den i marknadsförande syfte. Därför är det inte alltid lätt att avslöja, var gränsen går mellan artificiell intelligens och ”vanlig” högnivå-programmering.

Jag går här genom några tillämpningar i olika länder.

USA

USA har för oss i Sverige varit det land där AI utvecklats och fortsättningsvis utvecklas.

Låt mig börja med något som jag använder dagligen: Googles sökfunktion.

Det systemet sägs bygga på AI teknik, men hur tekniken ser ut är naturligtvis en hemlighet. Någonstans har jag sett att söksystemet använder maskininlärning för att förfina sina sökningar. Där finns ett skäl för att kalla detta för AI.  Själva sökmetoden vet jag däremot ingenting om, men jag kan inte låta bli att förvånas över hur fort det går. Dessutom kan jag naturligtvis inte kontrollera hur relevanta resultat jag får. Jag vet att min egen sökhistorik påverkar vad jag får fram, så jag försöker sprida mina frågor över olika möjliga områden.

En annan funktion som jag ofta använder är olika översättninsprogram. Sådana system har en gedigen forskningsbakgrund. Länge har s.k. ”naturligt språk” hört till universitetens AI-forskning. De översättningsprogram som vi kan hitta på nätet har säkert tagit vara på den forskningen, och dessutom lagt till en hel del eget. Google samlar till exempel en stor databas av både ord och satser genom att be sina användare lägga till egna översättningsförslag. Sökning är de, som jag nämnde tidigare, bra på.

En annan tillämpning som är relativt vardaglig är ”Siri” – ett system som kan förstå talat språk (begränsat än så länge) och svara muntligt eller genom att göra saker (ringa upp, ordna något i det uppkopplade hemmet). Vad Siri kan svara och göra är begränsat, men gränserna flyttas ständigt.

En något udda, men kanske på sikt seriös tillämpning är projektet ”How to generate (almost) everything”, https://howtogeneratealmostanything.com/, som startats av några forskare och studenter på MIT. Ett exempel är ett AI system som tränats på en mängd med recept på pizza för att hitta på ett eget recept. Ett av resultaten var baserad på följande ingredienser: räkor, sylt och italiensk korv. Jag tycker det verkar som om det finns arbete kvar att göra på det pizza-receptet.

Jag har också sett projekt som genererar bilder från text:

https://feber.se/pryl/art/386085/artificiell_intelligens_gr_sku/

eller romaner

(https://feber.se/vetenskap/art/346405/artificiell_intelligens_skrev_/),

eller kapitel i stil med Harry Potter:  https://www.theverge.com/2017/12/12/16768582/harry-potter-ai-fanfiction

eller ”musik”:

https://illvet.se/teknologi/datorer/artificiell-intelligens-gor-en-udda-julsang

men låt mig gå vidare till mer vardagsnära och realistiska tillämpningar från andra länder.

Israel
Jag får tacka Mattias Arvola på Linköpings Universitet för länken: http://www.startuphub.ai/landscape

Denna länk ger en översikt över företag i Israel som arbetar med system som har något inslag av AI. I länken kategoriseras tillämpningarna på följande sätt:

  • Teknologier
    • tal och text
    • datorseende
    • hårdvara
    • system som möjliggör AI (många)
    • Virtuell verklighet
    • biometri och ”bots”
    • diverse
  • nya media
  • självgående apparater
    • självgående bilar
    • säkerhetssystem
    • övervakning
  • försäljning
  • hälso- och sjukvård
    • medicinskt visuellt
    • diagnostik
    • övervakning
    • neurologiskt
    • sjukhusorganisation
    • seniorer
    • bärbara apparater
    • diverse
  • industri
    • underhåll
    • robotik
    • konstruktion
    • transporter och logistik
    • säkerhet
  • Ekonomi
    • banksystem
    • redovisningssystem
    • prediktion (t.ex. aktier)
    • försäkringar
    • bedrägerier
    • lån
    • analys
    • fastigheter
  • Jordbruk
    • planering
    • uppföljning
  • Marknadsföring
    • avancerad målanalys

    • En ytterligare uppdelning görs i sektorer: drönare, utbildning, övervakning, städning, resor, juridik, hem och diverse.

Om du slår upp länken, och går med markören över loggorna ser du dels vilken AI-teknik som används, dels hur många som arbetar inom företaget/projektet.

Det finns alltså redan nu (åtminstone i Israel) en mängd företag och projekt som exploaterar termen AI. Jag har ingen möjlighet att utvärdera någon av dessa, och inbjuder mina läsare som vet mer att komma med information om dem.

Kina

Ett annat land som satsar på AI är naturligtvis Kina. Tidskriften Ny teknik har framförallt fastnat för Kinas tillgång till persondata. Här en länk: https://www.nyteknik.se/digitalisering/kinas-vapen-for-att-bli-ledande-inom-artificiell-intelligens-6903516

Artikeln säger att Kina räknar med framförallt följande tillämpningar: från självkörande bilar till betalningssystem med ansiktsigenkänning, polisarbete och säkerhetspolitik. En följd av Kinas styre är att AI blivit ledande när det gäller censur.

Japan

Japan har koncentrerat sig på människoliknande robotar. Delvis kan det bero på att Japan har allt färre invånare, men människorna kräver fortfarande service av olika slag: vid försäljning, undervisning, kontroller och förstås vård. En del av de japanska robotarna har jag redan berättat om.

För att ersätta människor behövs inte alltid människoliknande robotar. Det går bra med program som kan läsa och bearbeta text och siffror. Ett aktuellt exempel är ett japanskt försäkringsbolag som 2017 ersatte 34 kontorsarbetare med ett IBM system som kallas för ”Watson Explorer” och som kan analysera data som behövs som underlag vid försäkringsberäkninar av olika slag. I Sverige har vi nyligen hört talas om datasystem som kan beräkna sociala ersättningar snabbare och mer riktigt än människor.

Här ska jag ta upp en annan AI-tillämpning, nämligen tankeläsning (https://www.cnbc.com/2018/01/08/japanese-scientists-use-artificial-intelligence-to-decode-thoughts.html)

De här försöken att läsa människors ”tankar” ligger ännu på forskningsstadiet och är långt ifrån möjliga att marknadsföra, men man kan aldrig veta hur fort utvecklingen går.

Indien

Nästa stora utvecklingsland som intresserar sig för artificiell intelligens är Indien. Där sägs att följande områden kommer att bli aktuella:

samhälleliga: jordbruk, vård och utbildning, företag: kontors och affärsautomatisering, talande ”robotar” (typ Siri), naturligt språk samt mönsterigenkänning.

Ryssland

Här har jag hittat en intressant artikel i IDG: https://www.idg.se/2.1085/1.688150/putin-ai

Några citat ur den kommer här:

Det land som först behärskar ai-tekniken blir också det land som kommer ha makten i världen, enligt Rysslands president.

Samtidigt varnar återigen superentreprenören Elon Musk för att en sådan tävling, stater i mellan, är den mest troliga anledningen till ett tredje världskrig.

Utan att vilja skrämmas måste jag ändå kopiera ett uttalande från president Putin:

AI kommer också förändra tekniken som används i krigsföring. Robotar som kan programmeras att skjuta på objekt och människor i ett visst geografiskt område, cybervapen eller autonoma drönare som kan samordna sina attacker. Både USA och Kina utforskar den här tekniken. Framtidens krig, tror Putin, kommer att vara en kamp mellan drönare.

Sverige

På sidan http://investeringstipset.se/har-ar-svenska-bolagen-som-satsar-pa-ai/

kan jag hitta några svenska bolag som använder AI på olika sätt (citat ur artikeln):

Man kan bryta ner det till tre delar: AI kan användas för att försvara den befintliga verksamheten genom genom att effektivisera eller få ner kostnader. Sedan kan det också användas till att utöka den nuvarande affären genom att ge kunderna större mervärde, och sist men inte minst kan det användas till att öppna helt nya marknader och göra affärer på helt nya sätt, det som kallas digital disruption.

Exempel är följande:

SEB bekräftade i höstas att de skulle integrera AI-medarbetaren Amelia i bankens kundtjänst, och Tieto meddelade i oktober att de hade valt in sin egenutvecklade AI Alicia T i ledningsgruppen för enheten för datadrivet beslutsfattande.

Framtiden?

För framtiden frågar sig några journalister följande:

”Inom vilket område kan det första Nobelpriset att ges till en ai?- Mest troligt inom biomedicin. Det handlar om så komplexa saker, och vi översköljs av data. Vi skulle behöva ha mycket intelligenta maskiner för att planera experiment, samla studier, göra kritiska utvärderingar – peka ut vad vi ska fokusera på vetenskapligt, säger Hiroaki Kitano.”

Detta citat är hämtat ur: https://www.nyteknik.se/innovation/da-far-ai-ett-forsta-nobelpris-6880261

Sist men inte minst ser vi möjliga tillämpningar av AI inom militären – varför inte ha robotarméer som bekämpar varandra snarare än människor? Dessutom har vi redan nu självstyrande raketer och drönare som kan bli än effektivare genom att ”läras upp” av egna och andras misstag.

Jag kan bara kommentera att det enda som sätter gränserna för tillämpningen av artificiell intelligens är vår fantasi (och de tekniska möjligheterna, som utvecklas hela tiden) samt rent fysiska fakta, som till exempel ljusets hastighet.

De militära tillämpningarna gör att många forskare och utvecklare börjar föreslå att AI inte bör släppas fri på egen hand utan bör kontrolleras och regleras. Mer om behovet av att tänka på hur en artificiell intelligens bör kontrolleras tar jag upp i kommande reflektioner, när jag har läst Max Tegmarks och Nick Bostroms intressanta böcker, fullspäckade med information och reflektioner.

Reflektioner över artificiell intelligens. Del 9. Artificiell emotion

Många klänger sig envist fast vid tanken att robotar må kunna visa viss intelligens, men de kan i alla fall inte vare sig visa eller uppleva känslor . Så har jag själv tänkt ända tills jag läste följande. uttalande av Marvin  Minsky: ”Frågan är inte om en intelligent maskin kan ha känslor utan om den kan vara intelligent utan.”

Jag har själv hittat på robotar som självmant laddat ner en ”emotionell komponent” för att kunna vara emotionella. Då måste jag förstås tänka genom vad detta innebär: Visar de känslor eller ”känner” de? Frågan påminner om den där om AI kan ha ett ”medvetande”. Hur ska vi kunna veta det?

I stället för att dyka in i den filosofiska snårskogen letar jag efter någon artikel om relationen mellan emotioner och AI på nätet. Och hittar förstås en, nämligen följande: (The Relationship Between Emotion Models and Artificial Intelligence av Christoph Bartneck, Michael Lyons, Martin Saerbeck)  https://arxiv.org/pdf/1706.09554.pdf   (2017)

Författarna hävdar att en AI (låt mig kalla den för robot) som ska samarbeta med en människa bör kunna tala om emotioner på samma sätt som en människa. Observera verbet ”tala” – i artikeln står inget om ”känna”, vilket det däremot står om i en bok, nämligen en som publicerades redan 1988 (och som jag inte hört talas om förrän nu, skam till sägandes). Boken har titeln ”The cognitive structure of emotions”. Referens: Ortony, A., Clore, G., Collins, A.: The Cognitive Structure of Emotions. Cambridge University Press, Cambridge (1988) Författarens modell kallas för OCC-modellen.

På 80-talet ”förstod” forskare det utforskade genom att göra blockmodeller. Blir någon klokare av en blockmodell? Jag förstår i alla fall bättre med hjälp av följande figur: (ursäkta att den blev suddig, är du riktigt intresserad finns figuren också i länken). Blockmodellen analyserar bakgrunden till emotioner i tre stora kategorier, från vänster till höger:

  1. Konsekvenser av händelser, 2) andras handlingar, 3) egenskaper hos objekt

Här tänker jag bara genom några aspekter. Låt mig ta följder av händelser, som kan vara önskvärda eller icke önskvärda. Författarna ger inga namn på emotioner, men jag kan föreslå emotioner som glädje, lycka på den önskvärda sidan, besvikelse och sorg på den icke önskvärda sidan. Sedan blir det lite krångligare: Situationerna kan beröra mig själv eller någon annan, och de kan inträffa nu eller i framtiden. Om de berör en annan kan ett önskvärt utfall göra mig avundsjuk eller glad, och ett icke önskvärt göra att jag tycker synd om den andre, men också att jag blir skadeglad.

Likadant skule jag kunna gå genom varje kategori: effekten av andras handlingar och egenskaper hos objekt. Den andra kategorien blir naturligtvis inblandad i den första och i den tredje kategorien skulle jag vilja placera alla kulturella yttringar och upplevelser. Jag lämnar denna uppgift till den intresserade läsaren och går i stället till tillämpningen av modellen.

Har man byggt någon AI eller robot som kan bygga sina beteenden på en sådan här oerhört detaljerad plan för emotioner? Svaret är enkelt: nej. Vi kan då gå till frågan: Varför skulle man vilja bygga in emotioner i robotar?

Det första jag kommer att tänka på är en teaterrobot: en som kan stå på en scen i stället för en mänsklig skådespelare. Den behöver ingen ”egentlig” känsla för känslor, huvudsaken är att den kan framställa ansiktsuttryck och kroppsrörelser som vi åskådare kan tolka som känslor. Där kan robotkonstruktören säkert lära sig en hel del av skådespelare.

 

Illustration målad av Sara Melin till boken: Stölden av biboet av Yvonne Wærn

En annan användning är mottagaren av kulturella uttryck, (åskådaren, läsaren, lyssnaren eller en recensent). Här kan en intelligent robot ställa det framställda mot det avsedda. Varför inte bygga ett intelligent program att vara lektör, till exempel? Jag kommer till tillämpningar i ett senare avsnitt.

Det tredje jag tänker på är direkt social interaktion. Om vi ska använda robotar, till exempel i äldrevården, (eller sjukvården, eller kanske till och med i skolan), bör de kunna uppvisa känslor som motsvarar sådana som människan som interagerar med den förväntar sig. En människoliknande robot skulle omedelbart kännas ”felaktig” om den inte hoppade till när någonting kastas på den (typ penna i klassrum) eller om den betedde sig icke adekvat i en vårdsituation (till exempel slängde en kopp kaffe i ansiktet på en patient som den höll på att hjälpa). Beteende och ansiktsuttryck ska alltså passa ihop med situationen. Vad vi skulle önska oss är evigt vänliga och tålmodiga robotar. Kan man åstadkomma sådant?

Jag kan ännu inte komma på någon situation där det är nödvändigt för en robot att ”känna” emotioner. Om roboten är avsedd att utföra olika uppgifter mer eller mindre självständigt, kan den helt enkelt programmeras till att göra det som krävs i den situationen. Att ”känna” något kanske inte har någon betydelse när det gäller att finna en relevant handling. Om roboten till exempel ser att en stege håller på att ramla, bör den vara programmerad till att hålla sig på behörigt avstånd, men den behöver inte bli ”rädd”. Om  någon börjar hamra på roboten, eller hindra  den från att göra något den ”vill”, ja då behöver den inte bli ”arg”. Den bör i stället hitta på något sätt att komma runt situationen. Kall, okänslig, så föreställer vi oss gärna en robot.

Men kärlek då, frågar kanske den nyfikne, liksom många kommentatorer på Facebook. Kan en robot känna kärlek? Först måste vi kanske göra klart för oss själva vad vi menar med ordet, och då upptäcker vi att kärlek är en oerhört komplicerad emotion: den har med oss själva och en annan att göra, den är önskvärd (om besvarad), den ger oss självkänsla och sist, men inte minst, den kan vara ett sätt att tillfredsställa ett grundläggande behov, sex. Kan robotar längta efter sex? Knappast nödvändigt i alla fall.

Sammanfattningsvis är emotioner nödvändiga för människoliknande robotar som ska interagera med människor i situationer där känslor kan bli aktuella. Då ska de inte bara kunna uppvisa adekvata emotioner utan också kunna ”läsa” andras på ett av de andra avsett sätt. Det senare kan vara nog så svårt. Frågan är om det är lättare att bortse från emotioner om robotarna inte liknar människor? Låt frågan stå för framtida forskning inom området människa-robot interaktion.

Kanske jag ska påpeka att några människoliknande robotar ännu inte finns ”i verkligheten”. Några forskare roar sig med att bygga robotar som kan både tala och röra på ansiktsmusklerna, men hur ”emotionellt intelligenta” de är , kan vi bara avslöja genom att själva se dem – ett Turing-test vore inte ur vägen.