Kategoriarkiv: Artificiell intelligens

Varför skriver jag science fiction?

Jag har en svaghet – nej flera, men det är en jag ska erkänna just nu: jag skriver science fiction, som visst helst ska förkortas SF. Ja, en gång i tiden läste jag SF också, men det är länge sedan – kanske för länge sedan.

Som alla goda navelskådare försöker jag förstå varför jag gillar att skriva science fiction. Kanske det beror på att jag aldrig fick studera vidare efter realexamen? Jag läste ändå, förstås, vem skulle kunna hindra mig? Men den där vägledningen jag skulle ha behövt för att förstå matematiken, fysiken, den fick jag aldrig. I stället läste jag populärvetenskap. Någonstans har jag hört att populärvetenskap är en pedagogisk lögn. Ja, i så fall är det lögn jag bygger mitt science fiction skrivande på. Ingen förstår ”big bang” eller ”svarta hål” utan metaforer. Själva namnen är missvisande: det var ingen smäll, och hålet är inte vare sig svart eller hål. Men ändå, vi förstår, intuitivt. Så ser jag science fiction. Det är fiktion redan när jag läser, det är bilder jag kan förstå, det är idéer att spinna vidare på.

Det blev inte fysik jag snodde ihop mina historier av. I stället blev det något jag krupit litet längre in under skinnet på: artificiell intelligens. Som kognitionspsykolog hade jag förstås lärt känna försöken att simulera mänskligt tänkande. Jag hade försökt mig på det klassiska programmeringsspråket LISP, det som man använde för att programmera ”god, gammaldags AI”. Jag hade låtit en dator snurra runt i en evig loop när jag skrev en rekursion utan godtagbar slutpunkt. En nyttig lärdom, men en som jag inte använder när jag skriver löpande text. Visst snurrar jag runt, men jag brukar hitta en punkt. Då och då.

Science fiction – det kallas visst också för spekulativ fiktion, och det tycker jag låter som en tautologi – dvs man säger samma sak på olika sätt. Det hjälper mig inte, så jag går till webben och ser denna definition av SF:

“Utforskandet av människans natur, identitet och existentiella villkor i framtida miljöer, alternativa universa, samhällen eller mentala tillstånd där nya teknologiska & vetenskapliga förutsättningar spelar en avgörande roll”.

Det låter inte så tolkigt, och än bättre blir det om jag gräver ner mig i detaljer och kommer till ”cyberpunk”:

 ”Berättelserna i denna sci fi genre utspelar sig ofta i en nära och dystopisk framtid där nätet (internet), artificiell intelligens, cyborgs och tekniska inplantat utgör viktiga ingredienser.  Ofta står den lilla människans kamp mot mäktiga företag eller förtryckare i centrum.”

(Citaten kommer från https://www.scifishop.se/science-fiction/)

Tja, om jag måste, så kan jag placera in min lilla fyrkantiga kloss i det åttkantiga hålet. Boken ”När havet steg” handlar om artificiell intelligens som styr världen i miljöförstöringens spår.

Ska jag egentligen bry mig om definitioner? Ska jag inte bara låta mig föras med i robotarnas värld? Det känns både mer intressant och stimulerande. Jag fortsätter nog med den superintelligente Maurice. Hur ska han klara av att betjäna det världsomfattande Systemet (byggt på AI, förstås)? Jag får väl se.

Reflektioner över artificiell intelligens. Del 13: Den tekniska singulariteten – upptäckt och kritik

Har du hört talas om den tekniska singulariteten? Det hade inte jag förrän ganska nyligen. Frågan är OM eller snarare NÄR den artificiella intelligensen uppnår och passerar den mänskliga.
Låt mig gå direkt på kritiken, som har två olika aspekter (minst):

  1. Är det överhuvudtaget tekniskt möjligt att konstruera en artificiell intelligens som kan mäta sig med den mänskliga?

2) Varför ska den mänskliga intelligensen tas som förebild för den artificiella?

  1. Möjligt?

Mina tekniska vänner reagerade genast. Nej, en teknisk singularitet finns bara i några tokars huvuden, nämligen framförallt hos dem som har anknytning till ”Future of life institute”, grundad av bland annat Max Tegmark (som förövrigt har fått smeknamnet ”Mad Max”).

Varför skulle det vara så omöjligt att uppnå teknisk singularitet? Max Tegmark själv säger att den enda fysiska begränsningen ligger i ljusets hastighet.

Kan det vara datorernas kapacitet som gör singulariteten omöjlig? Ja, nuvarande hårdvara verkar inte räcka till. Det går för långsamt (även om det är långt från ljusets hastighet), det krävs för mycket minne (även om man har superdatorer) och det kräver för mycket energi. (Det senaste förvånade mig som trodde att informationsteknik var energisnål, vilket alltså är fel.)

Nya datorer då? Kvantdatorer till exempel? Nej, mina tekniska vänner är inte bara envisa, de är också realistiska (möjligen beror det på att de själva jobbar med problemen): En allmän generell intelligens liknande människans kräver så mycket ”hårdvara” – mest beroende på att det vi människor är riktigt bra på är ”inbyggt” i oss. Vi behöver aldrig tänka på hur vi pratar, eller hur vi gör när vi blir kära, till exempel,. För att simulera sådant som är ”hardwired” behövs en mängd beräkningskapacitet.

Nu närmar sig den andra punkten i omöjligheten: Vi vet helt enkelt inte hur människor bär sig åt för att göra allt det där som är så självklart. Hur samordnas öga och hand till exempel? Själv blev jag helt förbluffad av hur enkelt det var att hålla bussen kvar på vägen den första gången jag satte mig vid en ratt (och jag ska inte tala om när och var och varför just här, det får vänta till mina memoarer). Det mesta av det som vi är riktigt bra på: att se ”gestalter” i fläckar, att förstå och få fram ord, att känna medlidande, att bli arga och att älska, allt detta går !automatiskt”, det vill säga utan något som helst medveten ansträngning. Hur gör vi? Det är ”inbyggt” i oss och ska en artificiell apparat kunna göra något liknande krävs en massa studier av dels situationerna omkring de här prestationerna, dels prestationerna själva. Och tro nu inte att sådana studier saknas, men de är långt från människans gåta.

Så låt mig gå till den andra frågan.

2) Varför ska just människan vara en förebild för Artificiell intelligens?

Dagens artificiella intelligens har den mänskliga hjärnan som förebild. Man bygger artificiella neurala nätverk och tycker man har kommit väldigt långt när man börjat bygga nätverken i tre dimensioner och inte bara i två. Detta kallas för ”deep learning” och den tanken har lett till ett stort språng i utvecklingen.

Men, många tänkare har påpekat att det var länge sedan som människor övergav idén att bygga flygplan som flög som fåglar. Det gick bara inte att få dem att flaxa med vingarna. När man slutade tänka flaxande gick det att få fram flygande föremål, med viss övertalning, förstås, men ändå. Så varför tänka mänsklig hjärna när man bygger artificiell intelligens?

Den kritiken låter ju helt rimlig, men … När det gäller flygplan kände man till en hel del om förutsättningarna för flygande: aerodynamik till exempel. Det var ”bara” att utveckla den kunskapen och så gick det att komma runt problemet att vingarna inte kunde röra sig. När det gäller intelligens är det så att vi vare sig känner till förutsättningarna eller ens är överens om vad som är ”intelligent”. Är inte myrorna intelligenta kanske, se vad de kan åstadkomma! Och delfinerna lär vara smartare än vi, på vilket sätt då?

Smarta konstruktörer och algoritmer har fått datorer att slå världsmästare i schack och i ”Go”, men då är dessa områden bland de mest utforskade av mänsklig ”smart” verksamhet. Låt oss gå till ”Allmän Generell Intelligens” – A G I – i stället. Vad är det? Hur gör vi?

Slutsatser

Det finns vare sig tekniska eller kunskapsmässiga förutsättningar för att bygga en artificiell generell intelligens.  Kan vi då vara trygga? Kan vi sluta upp med alla förberedelser för att hindra en superintelligens att ta över jorden?

Nja, jag är osäker. När jag söker efter information på Google, till exempel. Får jag verkligen allt? Hur utvald och anpassad är den informationen? Jag blir inte bara imponerad utan också litet rädd när jag pratar med ”Siri”. Kanske det är Google och Apple vi ska vara rädda för? Det tekniska undret kan utveckla sig själv. Det är det Bostrom menar när han talar om ”Superintelligens”. Den har lämnat människan långt bakom sig.

Reflektioner över artificiell intelligens del 12. Att kontrollera en ”superintelligens”.

Låt oss nu tänka oss att våra intelligenta tekniker lyckats med att konstruera en (eller flera)  apparater som kan fungera på ett intelligent sätt. Dessa har i sin tur utvecklat sig själva till en superintelligens, dvs en intelligens som är vida ”högre” än vår – så mycket högre att det inte går att mäta på intelligenstest, vi skulle kunna säga att vår intelligens är som kackerlackors i förhållande till superintelligensen.

Hur ska vi kunna leva ihop med en sådan intelligens? Vilka risker kan vi råka ut för? Hur kan vi förebygga dem?

Elon Musk (Teslas utvecklare) är en AI skeptiker och säger följande:

”Vi bara har ”fem till tio procents chans” att lyckas kontrollera en generell artificiell intelligens.”

(Ur:  https://www.idg.se/2.1085/1.693118/elon-musk-ai )

Att kontrollera en superintelligens är ett ämne som Nick Bostrom tar upp i sin  bok ”Superintelligence – paths, dangers, strategies”.

Han menar att det i princip finns två sätt att kontrollera det intelligenta systemet:

  1. Att  begränsa systemets förmåga
  2. Att påverka systemets mål

Begränsa förmågan

Den första metoden innebär att försöka låsa in AI (boxing method)

Här argumenterar Bostrom mycket övertygande om att det inte kommer att gå. Ett superintelligent artificiellt system kommer alltid att överlista oss på något sätt och ta sig ur det ”fängelse” vi skapat.

Den andra är att försöka få systemet att intressera sig för något som inte är i vägen för oss, t.ex. umgås med andra eller till och med engagera sig i projektet som den är delaktig i. Även om jag inte helt förstår vad Bostrom är ute efter, kan jag förstå att det kan vara svårt för en människa med vår begränsade intelligens att förstå vad som kan engagera en superintelligens, och vilka konsekvenser en sådan distraktion kan få.

Den tredje förmågebegränsningen ligger helt enkelt i att begränsa systemets tillgång till information. Man kan göra det genom att låta den köras på system med långsam hårdvara eller mycket begränsat minne. Det här är en möjlig kontrollmetod, nackdelen är att den kommer att drabba oss själva också. Vi kommer inte att kunna utnyttja det super intelligenta systemet så som vi tänkt oss.

Den fjärde metoden är att lägga ut snubbeltrådar i form av diagnostiska test på systemet. Om testet visar att systemet är ”på fel väg”, stoppar det systemet. Kan det funka? Ja, i vilket fall borde det vara obligatoriskt att använda sådana diagnostiska test i utvecklingsfasen.

Välja motivation

Kan inte de som konstruerar systemet ge det en lämplig motivaton redan under konstruktionsfasen? Hur skulle man kunna göra det?

Ett sätt är att direkt specificera vilket mål som systemet ska arbeta mot. Vi känner möjligen igen den här tanken från Asimovs robotlagar: En robot får aldrig skada en människa, etc.

Problemet med en direkt specifikation är att vi inte kan specificera vad vi egentligen menar. Om man skadar en människa, men räddar en mängd andra, hur stämmer det med lagen?  Om en masochist eller sadist hindras från att skada sig själv eller andra, blir inte den skadad då?

De här invändningarna bygger på att vår kommunikation inte är byggd för specifikationer utan för intuitiv förståelse. Så fort som vi försöker specificera något, råkar vi ut för definitionsproblem.

OK, låt oss då gå till nästa förslag: Att begränsa agentens handling till ett visst område, t.ex. till att svara på frågor (i stil med Googles söktjänst). Vad kan det vara för farligt med det? Faran ligger i att systemet kan bli alltför ambitiöst: det kan bokstavligt talat ”gå över lik” för att få tag i den information du behöver. Tänk på tortyr för att få information. Ja, även om vi säger åt systemet att tortyr inte är tillåtet kommer nästa problem: vad definierar vi med tortyr?

För varje möjlig inskränkning vi gör kan Bostrom hitta på ett motexemel, så låt mig snabbt gå över till den tredje metoden.

Den tredje metoden att välja motivation för ett superintelligent system är att låta en människa gå in och godkänna resultatet av systemets handlande. Detta skulle i och för sig innebära att man inte kan utnyttja systemet fullt ut (en människa är ju definitionsmässigt inte lika intelligent som ett superintelligent system),men man kan åtminstone stoppa systemet så snart som det ser ut att föra åt alldeles fel håll.

Slutsatsen är alltså: Låt en människa kontrollera systemets utfall så att det inte kommer i konflikt med vad människor eller skadar människor. Litet svagt, kanske, men ändå det bästa för tillfället.

Jag inbjuder dig till att själv läsa Nick Bostroms bok och komma med ytterligare metoder eller rentutav invändningar mot filosofen. Jag känner att jag inte har den filosofiska träning som krävs för att hitta på möjliga absurda konsekvenser av ett superintelligent systems handlande.

Nick Bostrom har fått ett stort forskningsanslag från Elon Musks institut: futureoflife. (http://futureoflife.org)

Elon Musk tror alltså på Nick Bostrom och hans möjligheter att styra AI utvecklingen i en positiv riktning.

Referens: Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.

Reflektioner över artificiell intelligens, 11. Vad ska man tänka på vid utvecklingen av AI?

I det tidigare avsnittet visade jag hur många olika tillämpningar som redan finns som på något sätt baserar sig på artificiell intelligens. Nästa steg är att reflektera över om det inte behövs någon reglering av utvecklingen? Kan man låta olika företag utveckla AI utan kontroll?

Jag har botaniserat litet på nätet och ger här några egna kommentarer samt citat. 

I Sverige har regeringen lagt upp följande förslag för fortsatt användning av AI:

(ur: https://www.regeringen.se/informationsmaterial/2018/05/nationell-inriktning-for-artificiell-intelligens/ )

Regeringens bedömning är att:
– Sverige behöver utveckla regler, standarder, normer och etiska
principer i syfte att vägleda
etisk och hållbar AI och användning av AI.
– Sverige behöver verka för svenska och internationella standarder och regelverk som främjar användning av AI och
förebygger risker.
– Sverige behöver kontinuerligt se över behovet av digital infrastruktur för att tillvarata möjligheterna som AI kan ge.
  Sverige behöver fortsätta arbetet med att tillgängliggöra data som kan utgöra en samlad infrastruktur för att använda AI på områden där det tillför nytta.
– Sverige behöver fortsätta att ta en aktiv roll i EU:s arbete med att främja digitalisering och med att möjliggöra nyttan som användningen av AI kan medföra.

I Sverige har några alltså redan tänkt på att AI kan innebära risker. I USA finns en hel grupp med forskare och tekniker som arbetar med att reflektera över hur man bäst kan förbereda sig för en bra framtid för mänskligheten. Elon Musk (uppfinnaren av Tesla) har samlat en hel del goda krafter till ett institut han kallar för futureoflife. (http://futureoflife.org)

Ett av områdena där handlar om framtida artificiell intelligens, där målet är att skapa en välvillig intelligens. Så här skriver Elon Musk:

Det som vi verkligen behöver är att försäkra oss om att livet fortsätter in i framtiden. .. Det är bättre att förhindra en negativ utveckling än att försöka förändra den när den väl inträffat.” (min översättning)

När det gäller A:s framtida utveckling är det ”säkerhetsforskning” som ligger på institutets agenda.

Detta institut har redan startat en mängd relativt storskaliga projekt  med detta generella mål, en översikt finns här: https://futureoflife.org/ai-safety-research/

Det största projektet leds av  Nick Bostrom: ”Strategic Research Center for Artificial Intelligence” i Oxford, England, och stöds med 1.500.000 dollar.

Låt oss se litet på hur realistiskt projektet att utveckla en superintelligent AI kan vara. Nyligen talade Max Tegmark på en konferens i Stockholm och visade då bland annat en bild, som illustrerar vad AI kan åstadkomma nu och inom den närmaste framtiden. Bilden visar ett tänkt landskap, där olika intellektuella färdigheter finns utlagda som berg och dalar. De förmågor som redan karakteriserar artificiell intelligens är utlagda som vatten, de förmågor som AI ännu inte klarar av visas som berg.

Vi ser att utantillinlärning, schack och Go ligger gott och väl under AI:s vattenyta, medan taligenkänning, översättning, bildtolkning och bilkörning ligger alldeles i strandkanten. Investering och social interaktion ligger en bit högre upp, medan konst, film, författande, programmering, vetenskap och AI design ligger uppe på bergtopparna.

AI landskap, från ett föredrag av Max Tegmark, 2018.

Det påpekas ofta i sådana här sammanhang att det är svårt att skapa program som kan utföra uppgifter som är enkla för människan, t.ex. tolka bilder eller förstå naturligt språk. Detta kallas för ”Moravecs paradox”. Varför är det så? Jo, vår hjärna ägnar en stor del av sin beräkningskapacitet (faktiskt så mycket som mer än en fjärdedel) åt ”lågnivå” beräkningar av det slaget. Den är alltså specialkonstruerad för att förstå tal och känna igen bilder, framförallt människoansikten. Den som vill åstadkomma en liknande prestation hos en maskin måste ”gå runt” problemet på något sätt.

Det här är reflektioner som flera AI tänkare framfört, och en del är redan ”överkörda” av utvecklingen. Vi talar nu på allvar om självkörande bilar, och i tidigare reflektioner har jag visat att både taligenkänning och översättning är realistiska mål för utvecklingen inom artificiell intelligens. De där böckerna och tavlorna som producerats av något AI program är mer lustiga än allvarliga, men snart kanske jag får hålla mig för skratt.

Max Tegmark själv påpekar i sin bok ”Life 3.0” att vi måste tänka efter före. Frågor som vi bör ställa oss innan vi själva utvecklar (eller låter andra utveckla) AI system är till exempel följande:

Vilken slags framtid vill vi ha? Ska vi utveckla dödliga autonoma vapen? Vad gör vi med automatisering av arbeten? Vad ska vi råda dagens barn att satsa på för utbildning? Vad vill vi helst: Att det kommer nya arbeten som ersätter gamla eller att samhället blir fritt från arbete, så att människan kan ägna sig åt vad hon vill och maskiner ersätter allt nödvändigt arbete? Kommer vi att kunna kontrollera intelligensen eller kommer den att kontrollera oss? Kommer intelligenta maskiner att ersätta oss eller att leva bredvid oss? Vad innebär det att vara människa i ett liv med artificiell intelligens? Vad skulle vi vilja att det innebar och hur kan vi göra så att det blir så som vi vill?

Hur vi än svarar, kan vi inte låta artificiell intelligens utvecklas ”av sig själv”. Vi måste ta ställning i några av de ovanstående frågorna.

Max Tegmarks mål är en ”vänlig” AI . Han vill förhindra att AI av sig själv eller av andra utvecklas på ett negativt sätt. En skadlig artificiell intelligens kan vara intressant för stormakter som vill få ett militärt övertag, och det finns redan självstyrande robotar men också tankar på att utveckla robotarméer.

Men vi ska inte tro att artificiell intelligens behöver vara medvetet (eller designmässigt) fientlig för att på sikt kunna skada mänskligheten. Det behövs bara att ett AI system får för sig att sträva efter ett mål som kan komma i konflikt med människor. Tegmark tar upp ett exempel: Tänk dig att du ber ett AI system att skapa en fabrik för att göra gem. Det här systemet får för sig att det högsta målet är att producera så många gem som möjligt. För att kunna göra det behöver det material, och då börjar det använda allt som finns omkring i världen som material, till slut kan det till och med börja använda människokroppar. Ja, detta är ju bara ett tänkt scenario, men framtidsforskare utgår ofta från just sådana.

Några slutsatser om framtiden för AI som Max Tegmark drar är följande:

När vi tillåter att system i verkligheten använder AI är det särskilt viktigt att vi gör systemen robusta, dvs vi måste kunna verifiera dem, validera dem, göra den säkra och kunna kontrollera dem. Den här kontrollen är speciellt viktig för vapensystem som kontrolleras av AI

AI kan göra våra juridiska system mer rättvisa och effektiva om vi bara kan göra robot-domarna opartiska och ”genomskinliga”.

Våra lagar måste uppdateras, till exempel när det gäller integritetsfrågor, ansvarighetsfrågor och regleringar

Om AI ersätter oss människor på arbetsmarknaden måste vi kunna få del av den välståndsökning som AI kan skapa.

Om vi blir arbetslösa, måste vi kunna få ut en ”mening” ur livet som inte enbart har med jobbet att göra.

(Min egen kommentar är att jag hoppas människor vill få ut något annat av livet än bara njutning, annars kan vi ju leva på droger medan AI jobbar).

Hur ska vi då kunna få en önskvärd utveckling av artificiell intelligens? Nästa gång ska jag berätta dels om Elon Musks farhågor om Artificiell intelligens, dels om Nick Bostroms bok ”Superintelligens”.

Reflektioner över Artificiell intelligens, del 10: Tillämpningar av AI

I det här avsnittet närmar jag mig de (nuvarande) tillämpningarna av artificiell intelligens. Vad är då tillämpning av ”artificiell intelligens”? Jag ser två olika ingångar:

  1. ett system som klarar uppgifter som vi tycker är ”intelligenta” med mänskliga mått
  2. ett system som bygger på AI-teknik, t.ex. maskininlärning, särskilt ”djup inlärning”.

Detta är långt ifrån tillfredsställande, men jag går runt svårigheterna genom att helt enkelt titta på tillämpningar som kallat sig för ”artificiell intelligens”. Vi måste då komma ihåg att själva benämningen kan ha en positiv klang och att en del företag (eller till och med forskare) som jobbar med Ai kan använda den i marknadsförande syfte. Därför är det inte alltid lätt att avslöja, var gränsen går mellan artificiell intelligens och ”vanlig” högnivå-programmering.

Jag går här genom några tillämpningar i olika länder.

USA

USA har för oss i Sverige varit det land där AI utvecklats och fortsättningsvis utvecklas.

Låt mig börja med något som jag använder dagligen: Googles sökfunktion.

Det systemet sägs bygga på AI teknik, men hur tekniken ser ut är naturligtvis en hemlighet. Någonstans har jag sett att söksystemet använder maskininlärning för att förfina sina sökningar. Där finns ett skäl för att kalla detta för AI.  Själva sökmetoden vet jag däremot ingenting om, men jag kan inte låta bli att förvånas över hur fort det går. Dessutom kan jag naturligtvis inte kontrollera hur relevanta resultat jag får. Jag vet att min egen sökhistorik påverkar vad jag får fram, så jag försöker sprida mina frågor över olika möjliga områden.

En annan funktion som jag ofta använder är olika översättninsprogram. Sådana system har en gedigen forskningsbakgrund. Länge har s.k. ”naturligt språk” hört till universitetens AI-forskning. De översättningsprogram som vi kan hitta på nätet har säkert tagit vara på den forskningen, och dessutom lagt till en hel del eget. Google samlar till exempel en stor databas av både ord och satser genom att be sina användare lägga till egna översättningsförslag. Sökning är de, som jag nämnde tidigare, bra på.

En annan tillämpning som är relativt vardaglig är ”Siri” – ett system som kan förstå talat språk (begränsat än så länge) och svara muntligt eller genom att göra saker (ringa upp, ordna något i det uppkopplade hemmet). Vad Siri kan svara och göra är begränsat, men gränserna flyttas ständigt.

En något udda, men kanske på sikt seriös tillämpning är projektet ”How to generate (almost) everything”, https://howtogeneratealmostanything.com/, som startats av några forskare och studenter på MIT. Ett exempel är ett AI system som tränats på en mängd med recept på pizza för att hitta på ett eget recept. Ett av resultaten var baserad på följande ingredienser: räkor, sylt och italiensk korv. Jag tycker det verkar som om det finns arbete kvar att göra på det pizza-receptet.

Jag har också sett projekt som genererar bilder från text:

https://feber.se/pryl/art/386085/artificiell_intelligens_gr_sku/

eller romaner

(https://feber.se/vetenskap/art/346405/artificiell_intelligens_skrev_/),

eller kapitel i stil med Harry Potter:  https://www.theverge.com/2017/12/12/16768582/harry-potter-ai-fanfiction

eller ”musik”:

https://illvet.se/teknologi/datorer/artificiell-intelligens-gor-en-udda-julsang

men låt mig gå vidare till mer vardagsnära och realistiska tillämpningar från andra länder.

Israel
Jag får tacka Mattias Arvola på Linköpings Universitet för länken: http://www.startuphub.ai/landscape

Denna länk ger en översikt över företag i Israel som arbetar med system som har något inslag av AI. I länken kategoriseras tillämpningarna på följande sätt:

  • Teknologier
    • tal och text
    • datorseende
    • hårdvara
    • system som möjliggör AI (många)
    • Virtuell verklighet
    • biometri och ”bots”
    • diverse
  • nya media
  • självgående apparater
    • självgående bilar
    • säkerhetssystem
    • övervakning
  • försäljning
  • hälso- och sjukvård
    • medicinskt visuellt
    • diagnostik
    • övervakning
    • neurologiskt
    • sjukhusorganisation
    • seniorer
    • bärbara apparater
    • diverse
  • industri
    • underhåll
    • robotik
    • konstruktion
    • transporter och logistik
    • säkerhet
  • Ekonomi
    • banksystem
    • redovisningssystem
    • prediktion (t.ex. aktier)
    • försäkringar
    • bedrägerier
    • lån
    • analys
    • fastigheter
  • Jordbruk
    • planering
    • uppföljning
  • Marknadsföring
    • avancerad målanalys

    • En ytterligare uppdelning görs i sektorer: drönare, utbildning, övervakning, städning, resor, juridik, hem och diverse.

Om du slår upp länken, och går med markören över loggorna ser du dels vilken AI-teknik som används, dels hur många som arbetar inom företaget/projektet.

Det finns alltså redan nu (åtminstone i Israel) en mängd företag och projekt som exploaterar termen AI. Jag har ingen möjlighet att utvärdera någon av dessa, och inbjuder mina läsare som vet mer att komma med information om dem.

Kina

Ett annat land som satsar på AI är naturligtvis Kina. Tidskriften Ny teknik har framförallt fastnat för Kinas tillgång till persondata. Här en länk: https://www.nyteknik.se/digitalisering/kinas-vapen-for-att-bli-ledande-inom-artificiell-intelligens-6903516

Artikeln säger att Kina räknar med framförallt följande tillämpningar: från självkörande bilar till betalningssystem med ansiktsigenkänning, polisarbete och säkerhetspolitik. En följd av Kinas styre är att AI blivit ledande när det gäller censur.

Japan

Japan har koncentrerat sig på människoliknande robotar. Delvis kan det bero på att Japan har allt färre invånare, men människorna kräver fortfarande service av olika slag: vid försäljning, undervisning, kontroller och förstås vård. En del av de japanska robotarna har jag redan berättat om.

För att ersätta människor behövs inte alltid människoliknande robotar. Det går bra med program som kan läsa och bearbeta text och siffror. Ett aktuellt exempel är ett japanskt försäkringsbolag som 2017 ersatte 34 kontorsarbetare med ett IBM system som kallas för ”Watson Explorer” och som kan analysera data som behövs som underlag vid försäkringsberäkninar av olika slag. I Sverige har vi nyligen hört talas om datasystem som kan beräkna sociala ersättningar snabbare och mer riktigt än människor.

Här ska jag ta upp en annan AI-tillämpning, nämligen tankeläsning (https://www.cnbc.com/2018/01/08/japanese-scientists-use-artificial-intelligence-to-decode-thoughts.html)

De här försöken att läsa människors ”tankar” ligger ännu på forskningsstadiet och är långt ifrån möjliga att marknadsföra, men man kan aldrig veta hur fort utvecklingen går.

Indien

Nästa stora utvecklingsland som intresserar sig för artificiell intelligens är Indien. Där sägs att följande områden kommer att bli aktuella:

samhälleliga: jordbruk, vård och utbildning, företag: kontors och affärsautomatisering, talande ”robotar” (typ Siri), naturligt språk samt mönsterigenkänning.

Ryssland

Här har jag hittat en intressant artikel i IDG: https://www.idg.se/2.1085/1.688150/putin-ai

Några citat ur den kommer här:

Det land som först behärskar ai-tekniken blir också det land som kommer ha makten i världen, enligt Rysslands president.

Samtidigt varnar återigen superentreprenören Elon Musk för att en sådan tävling, stater i mellan, är den mest troliga anledningen till ett tredje världskrig.

Utan att vilja skrämmas måste jag ändå kopiera ett uttalande från president Putin:

AI kommer också förändra tekniken som används i krigsföring. Robotar som kan programmeras att skjuta på objekt och människor i ett visst geografiskt område, cybervapen eller autonoma drönare som kan samordna sina attacker. Både USA och Kina utforskar den här tekniken. Framtidens krig, tror Putin, kommer att vara en kamp mellan drönare.

Sverige

På sidan http://investeringstipset.se/har-ar-svenska-bolagen-som-satsar-pa-ai/

kan jag hitta några svenska bolag som använder AI på olika sätt (citat ur artikeln):

Man kan bryta ner det till tre delar: AI kan användas för att försvara den befintliga verksamheten genom genom att effektivisera eller få ner kostnader. Sedan kan det också användas till att utöka den nuvarande affären genom att ge kunderna större mervärde, och sist men inte minst kan det användas till att öppna helt nya marknader och göra affärer på helt nya sätt, det som kallas digital disruption.

Exempel är följande:

SEB bekräftade i höstas att de skulle integrera AI-medarbetaren Amelia i bankens kundtjänst, och Tieto meddelade i oktober att de hade valt in sin egenutvecklade AI Alicia T i ledningsgruppen för enheten för datadrivet beslutsfattande.

Framtiden?

För framtiden frågar sig några journalister följande:

”Inom vilket område kan det första Nobelpriset att ges till en ai?- Mest troligt inom biomedicin. Det handlar om så komplexa saker, och vi översköljs av data. Vi skulle behöva ha mycket intelligenta maskiner för att planera experiment, samla studier, göra kritiska utvärderingar – peka ut vad vi ska fokusera på vetenskapligt, säger Hiroaki Kitano.”

Detta citat är hämtat ur: https://www.nyteknik.se/innovation/da-far-ai-ett-forsta-nobelpris-6880261

Sist men inte minst ser vi möjliga tillämpningar av AI inom militären – varför inte ha robotarméer som bekämpar varandra snarare än människor? Dessutom har vi redan nu självstyrande raketer och drönare som kan bli än effektivare genom att ”läras upp” av egna och andras misstag.

Jag kan bara kommentera att det enda som sätter gränserna för tillämpningen av artificiell intelligens är vår fantasi (och de tekniska möjligheterna, som utvecklas hela tiden) samt rent fysiska fakta, som till exempel ljusets hastighet.

De militära tillämpningarna gör att många forskare och utvecklare börjar föreslå att AI inte bör släppas fri på egen hand utan bör kontrolleras och regleras. Mer om behovet av att tänka på hur en artificiell intelligens bör kontrolleras tar jag upp i kommande reflektioner, när jag har läst Max Tegmarks och Nick Bostroms intressanta böcker, fullspäckade med information och reflektioner.

Reflektioner över artificiell intelligens. Del 9. Artificiell emotion

Många klänger sig envist fast vid tanken att robotar må kunna visa viss intelligens, men de kan i alla fall inte vare sig visa eller uppleva känslor . Så har jag själv tänkt ända tills jag läste följande. uttalande av Marvin  Minsky: ”Frågan är inte om en intelligent maskin kan ha känslor utan om den kan vara intelligent utan.”

Jag har själv hittat på robotar som självmant laddat ner en ”emotionell komponent” för att kunna vara emotionella. Då måste jag förstås tänka genom vad detta innebär: Visar de känslor eller ”känner” de? Frågan påminner om den där om AI kan ha ett ”medvetande”. Hur ska vi kunna veta det?

I stället för att dyka in i den filosofiska snårskogen letar jag efter någon artikel om relationen mellan emotioner och AI på nätet. Och hittar förstås en, nämligen följande: (The Relationship Between Emotion Models and Artificial Intelligence av Christoph Bartneck, Michael Lyons, Martin Saerbeck)  https://arxiv.org/pdf/1706.09554.pdf   (2017)

Författarna hävdar att en AI (låt mig kalla den för robot) som ska samarbeta med en människa bör kunna tala om emotioner på samma sätt som en människa. Observera verbet ”tala” – i artikeln står inget om ”känna”, vilket det däremot står om i en bok, nämligen en som publicerades redan 1988 (och som jag inte hört talas om förrän nu, skam till sägandes). Boken har titeln ”The cognitive structure of emotions”. Referens: Ortony, A., Clore, G., Collins, A.: The Cognitive Structure of Emotions. Cambridge University Press, Cambridge (1988) Författarens modell kallas för OCC-modellen.

På 80-talet ”förstod” forskare det utforskade genom att göra blockmodeller. Blir någon klokare av en blockmodell? Jag förstår i alla fall bättre med hjälp av följande figur: (ursäkta att den blev suddig, är du riktigt intresserad finns figuren också i länken). Blockmodellen analyserar bakgrunden till emotioner i tre stora kategorier, från vänster till höger:

  1. Konsekvenser av händelser, 2) andras handlingar, 3) egenskaper hos objekt

Här tänker jag bara genom några aspekter. Låt mig ta följder av händelser, som kan vara önskvärda eller icke önskvärda. Författarna ger inga namn på emotioner, men jag kan föreslå emotioner som glädje, lycka på den önskvärda sidan, besvikelse och sorg på den icke önskvärda sidan. Sedan blir det lite krångligare: Situationerna kan beröra mig själv eller någon annan, och de kan inträffa nu eller i framtiden. Om de berör en annan kan ett önskvärt utfall göra mig avundsjuk eller glad, och ett icke önskvärt göra att jag tycker synd om den andre, men också att jag blir skadeglad.

Likadant skule jag kunna gå genom varje kategori: effekten av andras handlingar och egenskaper hos objekt. Den andra kategorien blir naturligtvis inblandad i den första och i den tredje kategorien skulle jag vilja placera alla kulturella yttringar och upplevelser. Jag lämnar denna uppgift till den intresserade läsaren och går i stället till tillämpningen av modellen.

Har man byggt någon AI eller robot som kan bygga sina beteenden på en sådan här oerhört detaljerad plan för emotioner? Svaret är enkelt: nej. Vi kan då gå till frågan: Varför skulle man vilja bygga in emotioner i robotar?

Det första jag kommer att tänka på är en teaterrobot: en som kan stå på en scen i stället för en mänsklig skådespelare. Den behöver ingen ”egentlig” känsla för känslor, huvudsaken är att den kan framställa ansiktsuttryck och kroppsrörelser som vi åskådare kan tolka som känslor. Där kan robotkonstruktören säkert lära sig en hel del av skådespelare.

 

Illustration målad av Sara Melin till boken: Stölden av biboet av Yvonne Wærn

En annan användning är mottagaren av kulturella uttryck, (åskådaren, läsaren, lyssnaren eller en recensent). Här kan en intelligent robot ställa det framställda mot det avsedda. Varför inte bygga ett intelligent program att vara lektör, till exempel? Jag kommer till tillämpningar i ett senare avsnitt.

Det tredje jag tänker på är direkt social interaktion. Om vi ska använda robotar, till exempel i äldrevården, (eller sjukvården, eller kanske till och med i skolan), bör de kunna uppvisa känslor som motsvarar sådana som människan som interagerar med den förväntar sig. En människoliknande robot skulle omedelbart kännas ”felaktig” om den inte hoppade till när någonting kastas på den (typ penna i klassrum) eller om den betedde sig icke adekvat i en vårdsituation (till exempel slängde en kopp kaffe i ansiktet på en patient som den höll på att hjälpa). Beteende och ansiktsuttryck ska alltså passa ihop med situationen. Vad vi skulle önska oss är evigt vänliga och tålmodiga robotar. Kan man åstadkomma sådant?

Jag kan ännu inte komma på någon situation där det är nödvändigt för en robot att ”känna” emotioner. Om roboten är avsedd att utföra olika uppgifter mer eller mindre självständigt, kan den helt enkelt programmeras till att göra det som krävs i den situationen. Att ”känna” något kanske inte har någon betydelse när det gäller att finna en relevant handling. Om roboten till exempel ser att en stege håller på att ramla, bör den vara programmerad till att hålla sig på behörigt avstånd, men den behöver inte bli ”rädd”. Om  någon börjar hamra på roboten, eller hindra  den från att göra något den ”vill”, ja då behöver den inte bli ”arg”. Den bör i stället hitta på något sätt att komma runt situationen. Kall, okänslig, så föreställer vi oss gärna en robot.

Men kärlek då, frågar kanske den nyfikne, liksom många kommentatorer på Facebook. Kan en robot känna kärlek? Först måste vi kanske göra klart för oss själva vad vi menar med ordet, och då upptäcker vi att kärlek är en oerhört komplicerad emotion: den har med oss själva och en annan att göra, den är önskvärd (om besvarad), den ger oss självkänsla och sist, men inte minst, den kan vara ett sätt att tillfredsställa ett grundläggande behov, sex. Kan robotar längta efter sex? Knappast nödvändigt i alla fall.

Sammanfattningsvis är emotioner nödvändiga för människoliknande robotar som ska interagera med människor i situationer där känslor kan bli aktuella. Då ska de inte bara kunna uppvisa adekvata emotioner utan också kunna ”läsa” andras på ett av de andra avsett sätt. Det senare kan vara nog så svårt. Frågan är om det är lättare att bortse från emotioner om robotarna inte liknar människor? Låt frågan stå för framtida forskning inom området människa-robot interaktion.

Kanske jag ska påpeka att några människoliknande robotar ännu inte finns ”i verkligheten”. Några forskare roar sig med att bygga robotar som kan både tala och röra på ansiktsmusklerna, men hur ”emotionellt intelligenta” de är , kan vi bara avslöja genom att själva se dem – ett Turing-test vore inte ur vägen.

Reflektioner över artificiell intelligens. Del 8. Fördelad intelligens

Tidigare har jag skrivit om robotar. Då har jag tänkt mig en intelligens som befunnit sig inne i en och samma varelse – en människoliknande robot. Men många har påpekat att intelligens mycket väl kan fördelas över flera organismer, eller över en organism och en artefakt. Här ska jag tala om fördelning över organismer/varelser/robotar, alltså enheter (förlåt ordet!) av samma slag.

Tanken att en grupp varelser skulle kunna ha en högre sammanlagd intelligens än var och en av de ingående varelserna är inte på något sätt ny. Vi behöver bara sätta oss ner vid en myrstack eller en bikupa och fundera över vad varelserna där gör egentligen. Hur kan myror bygga en myrstack, skaffa sig mat, föda upp nya generationer? Och hur bär sig bin åt för att göra sina celler, hitta nektar och göra honung av den? Varje enskild myra och varje enstaka bi verkar inte särskilt intelligent. I själva verket förefaller deras handlingasr helt meningslösa när vi studerar varje individ för sig.

Vi vet att vi har fel. Vi kan se det från resultatet. En myrstack är mycket mer än en slumpvis samling myror, en bikupa surrar av meningsfullhet.

Mitt första möte med begreppet ”fördelad intelligens” kom genom Douglas Hofstadters bok ”Goedel, Escher, Bach: An eternal Golden Braid, som kom ut redan år 1979 och kom att betyda en hel del för många nyfikna kognitions- och datavetare av min generation. Du kanske har ett annat möte, till exempel med Ed Hutchins: ”Cognition in the wild” eller Max Tegmarks ”Life 3.0”. Eller du kan ha varit med om ”team building” på jobbet eller andra samarbetsstärkande aktiviteter.

Vad lär vi oss av att samarbeta med andra eller att läsa vad andra tänkt om samarbete?

  1. Det första är att aktiviteten/verksamheten ska kunna delas upp så att varje individ kan arbeta på sin egen del. Varje myra bär på ett strå till stacken brukar vi säga, och då tänker vi på att en stack består av en mängd strån (eller barr). Ett enkelt exempel är att gräva diken, ett mer komplicerat är att bygga hus.
  2. Det andra är att alla enskilda delar har ett gemensamt överordnat mål: att bygga en myrstack eller att åstadkomma ett dike, till exempel.
  3. Det tredje är att arbetet måste organiseras på något sätt. Alla myror kan inte bära på samma strå, alla människor kan inte gräva på samma ställe. Självklart?Ja, men för mer komplicerade sammanhang krävs organisationsteori.
  4. I mer komplicerad verksamhet är det fördelaktigt om det finns individer med olika slags kompetens. Till och med i en bikupa har vi en arbetsfördelning: det finns fältbin som söker efter nektar, am-bin, som ger de växande larverna mat, bygg-bin, som bygger celler, etc.

5) En viktig aspekt är att de olika ”agenterna” måste kunna kommunicera med varandra. Det behöver inte att de ska behöva använda ”naturligt språk”, alltså mänsklig kommunikation. Myrorna stöter på varandra när de träffar på varann, bina sägs ”dansa”.Artificiella agenter utbyter information elektromagnetiskt. Kommunikationen tar tid och resurser.

En av de första insikterna jag fick ur Hofstadters bok var att en verksamhet kan betraktas på flera olika ”nivåer”. Det som jag gör som enskild individ har en mening för mig, men en organisationsteoretiker kan se en annan mening med hela avdelningens arbete, o.s.v: en kommunalpolitiker betraktar lokalsamhällets aktiviteter medan en rikspolitiker borde se till hela landets sammanlagda rörelser, produkter och möjligheter.

Bilden är ur Hofstadters bok sid 310. Titta noga, så ser du flera nivåer. Överst står ”MU”.

Om vi nu ser på en grupp robotar, kan dessa alltså åstadkomma mer än var och en av dem, om de samarbetar, men vi kan för den skull inte säga att fördelad AI är vare sig effektiv eller ineffektiv, god eller ond innan vi ser hela sammanhanget av artificiella agenter.

Så långt jag förstår är det så att problem som kan tacklas av fördelade agenter måste kunna delas upp och agenterna måste få var sin uppgift, vare sig det är som på ett löpande band eller olika delar av en samma uppgift, som när det gäller att gräva ett dike.. Det går inte att samarbeta kring gestaltväxlingsproblem (till exempel det jag använde i den tidigare reflektionen), inte heller går det särskilt bra att trängas på ett och samma ställe när man gräver ett dike. Självklart?

Hos bin och myror är fördelningen inbyggd, vi människor måste skapa en organisation Hur är det då med artificiella agenter? Just nu måste vi planera fördelningen innan vi sätter i gång arbetet. Kan vi stoppa mitt i och göra om?  Kan vi få artificiella agenter  att kompensera för dålig organisation? Så där som människor gör? Inte vet jag. Men den som planerar fördelad artificiell intelligens måste planera fördelningen. Arbetet kan gå så fort att vi inte hinner stoppa det om något går snett.

Reflektioner över Artificiell intelligens, del 7. Självständiga robotar

I de förra reflektionerna tog jag upp robotar som verktyg (tool AI). Här ska jag fortsätta att reflektera över vad självständiga robotar kan vara, varför vi skulle vilja ha sådana och vilka konsekvenser sådana robotar skulle kunna innebära.

Om en robot ska vara självständig, bör den ha en allmän intelligens, minst motsvarande en människas för att vi ska acceptera den. En schackspelande robot eller en självkörande bil skulle vi inte kalla för en självständig robot. På engelska kallas en artificiell allmän intelligens för AGI, vilket passar bra för svenska också: Artificiell Generell Intelligens.

Låt oss nu tänka oss att vi har en människoliknande robot framför oss, ungefär som den här:

https://www.youtube.com/watch?v=SsYLOxYmFbk

Vad tänker vi om den? Vad tror vi att den kan göra?

Det naturliga är att bemöta den som en människa. Vi vill prata med den, men störs av att munnen inte rör sig. Vi undrar hur den är, vad den kan göra. En kritisk granskare undrar om den här filmen bara visar en docka med en inspelning inne sig.

AI forskare envisas med att säga att människoliknande robotar med AGI kan komma inom en kort tid – exakt hur lång kan ingen säga. Låt oss då fortsätta.

Varför skulle vi vilja konstruera eller äga en människoliknande robot? Ett skäl kan ligga i att vi vill göra en kopia av oss själva. Något som kan överleva oss, möjligen? Den japanske professorn som ligger bakom den där kvinnliga roboten har också gjort en robot som liknar honom själv, se här: http://www.geminoid.jp/en/index.html. Nu tror jag inte att den roboten har ens i närheten av den intelligens, kunskap eller förmåga som professor Ishiguro själv, jag ser den som ett ”skal”.

Den första reflektionen människor i allmänhet har angående robotar är att robotar aldrig kan bli som människor. Robotar skulle inte kunna skapa, de skulle inte ha några känslor, ingen ”intuition” och min egen tanke var att de inte skulle kunna lösa gestaltväxlingsproblem (se kapitel 36 i När havet steg, problemet finns här: http://yvonnewaern.se). Det är inskränkt att tänka så, menar Nick Bostrom (författaren till ”Superintelligence); har vi en superintelligens (enligt hans definition som jag kommer till senare), ska de förstås klara allt.

Vad ska vi då ha en sådan intelligens till? Vi kan tänka oss att vi har några riktigt svåra problem som vi vill att den ska hjälpa oss med. Just nu kan jag tänka mig att klimathotet är ett sådant. Låt oss lägga några data och några förslag i AGI-robotens knä och låt den räkna ut den bästa möjliga lösningen.

Men vänta nu! Vad är det som säger att en så intelligent robot skulle vilja svara på våra inskränkta frågor? Den har kanske siktet inställt på något helt annat, något som inte alls har med människor att göra. Det riktigt knepiga med en superintelligens är inte att den kan vara fientligt inställd till människor, så där som i ”Terminator” eller andra skräckfilmer av Sc ience fiction typ, utan att den helt enkelt kan ha andra mål. Den kan till exempel vilja ha en egen planet att leva på och antingen utplåna människor på jordklotet eller använda alla jordens resurser och bygga rymdskepp för att ta sig till den närmaste galaxen.

En artificiell generell intelligens behöver alltså inte ha samma mål som människorna som skapat den. Finns det något sätt som vi kan använda för att skapa mål åt den, mål som stämmer med våra? Vänta, jag ska kolla i Bostroms bok och återkommer.

Om någon vill läsa på tidigare ger jag referensen här:

Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Paper back: Oxford University Press 2016 (första upplagan 2014).

Ett problem ur När Havet steg, kap 36.

”Vi har en gård här utanför oss, det vet ni alla om. Men vet ni hur stor den är? Det är sidornas längd vi ska låta våra tävlande räkna ut. Gården är rektangulär och den ena sidan är två meter längre än den andra. Nu tänker vi oss att vi lägger upp en grusgång längs med den ena utsidan, en gång som är exakt en meter bred. När vi kommit runt, fortsätter vi på insidan av den gång som vi gjort. Så där fortsätter vi som en spiral inåt mitten, fast med hörn, inte en rund spiral. När vi gjort en gång så att det inte finns någon mark kvar längre, är vi klara. Sedan går vi längs med grusgången, runt och runt, precis i mitten av gången. Vi har en stegmätare som talar om hur långt vi har gått. Det är 143 meter. Frågan är nu: Hur långa är gårdens sidor?”

Problemet kommer ursprungligen ur Lewis Carrolls bok ”A tangled tale”, som du kan hitta här:

https://ebooks.adelaide.edu.au/c/carroll/lewis/tangled/

Reflektioner över Artificiell intelligens. Del 6: Robotar som verktyg

Vad ska vi ha robotar till? Hur ska de tjäna oss? Många tänker sig robotar som artificiella människor, men vad är det som säger att robotar ska ha mål eller bete sig som människor? I många sammanhang har människor större nytta av en eller flera robotar om de fungerar som verktyg (tool AI, enligt Nick Bostrom).
Låt oss tänka oss en robot ungefär som en ordbehandlare. Den gör exakt vad vi säger åt den, bara litet mer (korrigerar stavningen till exempel). Tänk dig en hushållsrobot som handlar mat och lagar den, som plockar undan och dammsuger, så bekvämt. Du bara befaller vad roboten ska göra och så gör den det.
Vad är det för skillnad mellan en människoliknande robot i så fall och ett ”vanligt” datorprogram?

För det första kan den göra så mycket mer än datorprogram gör just nu. Den är inte specialkonstruerad för en enda uppgift, utan har en bredare kompetens. Men måste den likna en människa för det?
Det är förstås bekvämt för en användare med en robot som kan göra det som en människa kan göra. Man behöver inte tveka om robotens funktioner; den kan helt enkelt göra samma saker som en människa. En användare behöver inte en flersidig manual som beskriver olika aktiviteter; en användare tänker bara på sig själv och vad hen kan göra. Sedan kan vi förstås diskutera om roboten ska ha liknande kroppsliga begränsningar: det kanske inte vore så dumt om den kunde bära tyngre föremål, orka mera, se bättre och höra bättre. Då kunde den verkligen hjälpa en människa. Huvudsaken är att den gör det som användaren vill. En robot som verktyg behöver inte ha någon fri vilja, vi säger bara vad den ska göra och resultatet blir därefter.

Ja, en sak till, det ska förstås vara lätt att tala om för roboten vad den ska göra. Vi vill inte ha något krångligt ”gränssnitt”, inte en manual som talar om vilka knappar vi ska trycka på eller vilka ord vi ska använda. Vi vill kunna umgås med roboten som med en människa. Forskarna talar om detta som ”naturligt språk”, det kan vara skrivet eller talat. Flera exempel på ett gränssnitt med naturligt språk finns redan nu. Det är ”Siri”, men hennes handlingar är relativt begränsade. Också sökningen i internet, t.ex. med hjälp av Google sker med naturligt språk. Människoliknande i kommunikationen, men inte i formen. De är båda exempel på verktyg.
Drömexempel på tjänare som fungerar som verktyg är anden i flaskan, den som kan ge människan allt hon önskar. Ett annat exempel är en sexrobot som enbart underkastar sig och inte har några egna önskemål.
En robot som verktyg skulle vi kunna jämföra med en hund: Den kan hjälpa oss med många olika aktiviteter, inom hundens begränsningar och med hundens särskilda förmågor. Den förstår inom vissa gränser vad vi vill om vi säger till den. Men det tar lång tid att träna en robot. Åtminstone med dagens maskininlärningstekniker.
Även om vi är långt från människoliknande verktygsrobotar just nu kan vi fråga oss om det kan vara något fel på att utveckla robotar som verktyg. Om de inte gör något annat än vad människan bestämmer kan de väl inte utgöra någon risk för människan?

Då kan vi ta ett motargument med hjälp av en slags ”robot” som finns redan nu: de moderna målsökande raketerna. De tjänar sin herre genom att skada herrens fiende. De är visserligen inte människoliknande, men de kan belysa problemen med att använda robotar eller överhuvudtaget AI som verktyg.
Verktygsrobotar lyder under människan och är därmed underkastade människans välkända svagheter: kort planeringshorisont, kort minne, oförmåga att förstå komplicerade samband samt det värsta: människans egoism och människans ondska. Kan vi göra människan god kvarstår ändå de andra problemen. Vore det inte bra att ha en robot som kunde hindra människan från att göra dumheter? En som åtminstone kunde tala om när människan är på ”fel” väg?

Vi kommer då in på helt autonoma människoliknande robotar,  jag ska diskutera dem litet nästa vecka.

Men först: ett exempel på vad det kan innebära att ha en robot som ”verktyg” finns i kapitel 14 i boken ”När havet steg”. Här är det träningen som tas upp. Tänk dig en lat robot som den här:

Ur: När havet steg. Kapitel 14. Kan en robot agera självständigt?

I dag vaknar jag utsövd, nöjd med mig själv att jag klarat av att skaffa en flygbiljett åt mormor. Det är bara resten kvar.
Nu gäller det att träna Romeo så att han kan följa mormor till flygplatsen.

”Jag tänker träna Romeo”, meddelar jag vid frukostbordet.
”Vad då? Till vad?” undrar mormor. ”Jag ska hjälpa dig, jag vet hur man gör. Jag lärde honom att flytta mig omkring i lägenheten. ”
”Hur då?”
”Det var inte lätt”, suckar mormor. ”Först pekade jag på mig och på honom och försökte teckna att han skulle ta i mig och lyfta upp mig. Det fungerade inte alls.”
”Hade du inte fått några instruktioner på hur du skulle göra med honom?”
Jag blir upprörd över att man ger gamla människor assistenter utan någon som helst bruksanvisning.
”Nej”, säger mormor. ”Jag var tvungen att ta honom i handen, och lägga hans arm om min midja.”
Hon skrattar vid minnet.
”Då ramlade jag ur sängen, för han höll inte i mig.”
”Gjorde det inte ont?”
”Äsch, inte värre än annars. Egentligen var det bra att jag ramlade. Det verkade som om Romeo förstod vad jag behövde. Han böjde sig ner och lyfte upp mig i sängen igen.”
”Men det var inte det du ville!”
”Nej, men det var i alla fall en början. Han hade lyft mig. Jag tackade honom och gjorde samma sak en gång till. En gång till ramlade jag i golvet, men nu var jag förberedd. Han lyfte upp mig i sängen igen. Så där höll vi på ett tag, tills jag hade fått ordentligt ont i vänster lår också.”
Det där var väl inget bra. Att hon inte sagt något till mig! Men vi har inte haft någon kontakt med varandra sedan hon kom hem från sjukhuset. Under den tiden har det hänt mycket, både i den stora världen där havet fortsätter att stiga och hos mormor där robotarna kommit som hennes assistenter.
”Till sist vägrade jag att låta Romeo lägga mig i sängen. Jag spjärnade mot och sprattlade och pekade på stolen framför VIU:n.”
”Förstod han då?”
”Inte genast, men efter många gånger, jag har tappat räkningen, vände han bara och gick till stolen. Där släppte han ner mig ganska oförsiktigt, så jag höll på att ramla igen.”
Jag ser situationen framför mig och blir både upprörd och full i skratt. Hur kan man ge gamla sjuka människor en robot som riskerar att bryta benen av dem? Tur att mormor är så tålmodig. Och så tuff.

Så det är bara genom att visa om och om igen som Romeo kan lära sig? Det stämmer i och för sig med vad jag läst om neuronnät. Upprepning är inlärningens moder, för artificiell intelligens likaväl som för mänsklig.
Men nu går det inte att försöka lära Romeo genom upprepning. Det är alldeles för omständligt. Jag kan inte låta honom om och om igen bära mormor nerför trappan, sedan gå in i en taxi, fara till flygplatsen och gå till incheckningen. Det skulle ta alldeles för lång tid och bli alldeles för dyrt.
Nej, den enda lösningen är att mormor visar honom till flygplatsen, hon kan ju klara det mesta, utom själva resan. Och så får Romeo ta sig tillbaka själv. Om han nu klarar det, förstås. Jag måste kolla med mormor.

”Mormor”, säger jag medan hon sitter upptagen med någon av de gamla filmerna framför VIU:n.
”Ja?” Låter hon inte lite otålig? Jag måste ju fråga henne, det handlar om hennes hemresa.
”Om Romeo tar dig till flygplatsen, kan han då ta sig hem på egen hand?”
”Ingen aning”, säger mormor. ”Jag har då aldrig sett honom göra något på egen hand.”

Hur gör vi då? Det kanske räcker med att jag lär honom att gå tillbaka till taxin. Jag ber taxichauffören vänta medan Romeo checkar in mormor, och så får Romeo gå tillbaka. Eller, förresten, ännu bättre: Taxichauffören får gå med in och så tar han med Romeo tillbaka. Förträfflig idé.

Jag jagar ut på stan för att ta reda på en taxi med en chaufför  har en tolkningsapparat. Det är inte så lätt. Numera är de flesta bilar självkörande. Taxibilar med chaufförer finns bara till för turister som inte ens vet vad orterna heter här på Lanzarote. Fördelen är att chaufförerna måste ha tolknings-apparater.
Efter några försök hittar jag en taxi.
”Jag skulle behöva ha hjälp med en skjuts till flygplatsen.” Taxichauffören skakar på huvudet och säger något som i min TOLK låter som:
”Inte få utanför Haría.”
Jag tror att det innebär att han inte får köra någon utanför Haría. Energiransoneringen gäller tydligen taxibilar också
Nästa bil, då? Där finns en skylt utanpå med texten ”Distancia”, och jag tror att det betyder ”avstånd”. Jag hoppas att han kan köra utanför Haría. Det visar sig vara riktigt. Jag försöker förklara problemet för honom: Han ska skjutsa två personer till flygplatsen, följa dem in till incheckningen och sedan ta en person tillbaka till Haría.
Han bara skakar på huvudet. Förstår han inte? Jag är på väg att dra med honom in till mormor, när min TOLK äntligen låter mig förstå vad som är fel: Han får inte parkera bilen och gå från den förrän hans dagspass är slut. Är det likadant med alla taxi? Ja, säger den här chauffören i alla fall.  Han är nog en robot som vare sig behöver gå på toa eller äta.
Jag går till ytterligare en, han förstår inte ett skvatt. Eftersom jag inte ser någon mer taxibil med skylten ”Distancia”, så ger jag upp.

Romeo får helt enkelt lära sig att gå tillbaka till taxin på egen hand. Vi kan förstås inte träna på flygplatsen. I stället tar jag med Romeo till gatan och ställer honom vid porten. Där befaller jag honom att stå stilla. Det gjorde han ju när jag var hos TCM, så det borde han förstå.
Själv går jag till Plaza de la Constitución, där taxibilarna står, och så ber jag en köra mig till mormors hus. Där står Romeo snällt och väntar. Så här långt fungerar det alltså.
Jag visar in Romeo i taxin och ber chauffören köra tillbaka till torget där vi börjat. Han ser något undrande ut, men jag betalar innan jag går in och han kör. På torget går jag av. Jag säger åt Romeo att gå ut också.
”Sale!” befaller jag. Innan jag började det här Romeo-projektet slog jag upp vad ”gå av” heter på spanska och lärde mig det. Det ligger lätt i munnen, naturligt för en svensk tunga. Sedan gäller det att få honom att gå hem utan mig.
”A casa!” säger jag och viftar med händerna för att skjutsa i väg honom.
Romeo tittar på mig med sina oseende ögon och han drar faktiskt på munnen.
”Gå hem!” förtydligar jag det, fast jag mycket väl vet att han inte förstår svenska.
”A casa!” säger jag en gång till.
Romeo tar mig under armen och börjar gå, åt rätt håll.

Det är ju klart att det inte kan fungera vid första försöket. Kanske jag borde ha mormor med för att få snabbare kommunikation? Jag går hem tillsammans med Romeo och så börjar jag om hela proceduren igen, nu med mormor.
Han bär henne i rullstolen nerför trapporna, medan jag hämtar en taxi. Vi in i taxin, tillbaka till torget, där vi går av. Så långt funkar det i alla fall, men nu ska vi få Romeo att gå tillbaka ensam.
Mormor säger åt Romeo att gå hem, men han viker inte från hennes sida. Med prat och gester förklarar mormor att hon vill stanna på detta vackra torg, där det fortfarande växer något träd och ännu klättrar några skuggande klängväxter på en inhägnad. ”I solen”, lägger hon till och vänder upp ansiktet mot den ljusa fläck som kan vara sol. Jag beundrar hennes tålamod. Det är förstås så här hon gjort för att undervisa robotarna.
Romeo ställer sig vid rullstolen och håller fast i handtagen. Det är som förgjort. Då får jag syn på caféet i hörnet på torget. Där kan vi sitta utanför och dricka kaffe, mormor och jag, medan Romeo går hem. Mormor förklarar, Romeo lyssnar till synes uppmärksamt. Jag går in i caféet och beställer kaffe åt mig och mormor. Romeo ser ut som om han inte vet om han hör till mig eller mormor, men till slut bestämmer han sig och stannar hos mormor.

När jag kommer ut igen, säger mormor åt Romeo att gå hem. Hon till och med förklarar att han får komma tillbaka om en timme och hämta henne. Inget resultat. Romeo står som en soldat vid hennes rullstol och låtsas inte förstå någonting. Det är möjligt att han faktiskt inte fattar vad hon vill. Mormor och jag dricker kaffe, men Romeo får ingenting. Han vill nog inte ha någonting heller. Till slut ger jag upp. Vi går ut på torget igen och går hem tillsammans. Jag tycker inte det tjänar något till att ta en taxi den lilla biten.

Jag har inte råd att träna Romeo på det här sättet. Det måste finnas någon annan lösning att få honom att bara lämna mormor på flygplatsen.

Jag vet, jag ska be Juan om hjälp. Jag är lite förargad för att Juan gjort sina robotar så osjälvständiga. Vad är det för idé med det?

Bra kommentar från Lars Oestreicher!

Tack, Lasse för din insiktsfulla kommentar!
Jag har själv funderat över
1) om den där ”Superintelligensen” måste ha ”kropp”

2) Varför vi människor kallar vissa autonomer för ”robotar” och andra inte (exemplet ”drönare”, ”självkörande bil”)

Värt att fundera på i samband med ”superintelligens”, som jag ska skriva om när jag läst Nick Bostroms bok ”superintelligens” en gång till.

 

Reflektioner över Artificiell intelligens, del 5. Robotar – en bakgrund

Tidigare diskuterade jag Turing-testet – dvs hur vi kan skilja mänskligt och artificiellt tänkande åt. Intressant nog kom många kommentarer att handla om robotar. På Turings tid var robotar inte aktuella. Den artificiella intelligensen fanns i datorer, och vi kom att uppleva den genom att sitta framför en datorskärm. Det gemensamma för interaktionen med människan var den skrivna texten. Vi vare sig såg eller hörde författaren. Ett tidigt exempel är ”psykoterapeuten” Eliza.

Hur upplever då moderna människor begreppet ”robot”?

För de flesta människor innebär ordet ”robot” en artificiell, människoliknande varelse. Ordet sägs ursprungligen härröra ur en pjäs av den tjeckiske författaren Karel Capek år 1920, och betyder ungefär ’”slav”, från ordet ”robota” som i slaviska språk betyder ”utföra tungt, enformigt arbete”.

En självstyrande maskin som kan ersätta människan i olika arbeten ses ofta som en robot – t.ex. en robotdammsugare eller en robotgräsklippare. När människan måste styra maskinen (t.ex. en mixer eller en motorsåg) kallas apparaten sällan för en robot.

En självkörande bil räknas inte som ”robot”, inte heller en ”drönare”. Det kan bero på att dessa automater fått egna benämningar. Däremot finns det robotar inom industrin som kvalificerar för beteckningen, även om de inte alls är människoliknande.

Vad krävs då för att konstruera en ”robot”?

Tekniskt sett kräver robotik kunskaper från många områden, till exempel: fysik, datavetenskap, el-lära och matematik. Moderna robotar som ska samarbeta med människor i s.k. ”naturligt språk” kräver en hel del lingvistik kunskap. 

Inom bokens och filmens värld används begreppet relativt fritt, och fantasin kan flöda och ge upphov till både hjälpsamma och fientliga robotar, ”dumma” och ”intelligenta”. Hur människoliknande en robot är kan också variera, från föga (t.ex. i filmen ”Hitchhiker’s guide to the galaxy” eller ”Starwars” från 1977), till mycket (t.ex. i filmen ”Blade runner”).

I boken ”När havet steg” har jag velat skilja på tre olika typer av robotar:

– Robotar som verktyg. Dessa robotar gör bara vad de lärt sig och är beroende av människor för att kunna fungera. Den grundläggande teorien bakom den här typen är den s.k. ”verksamhetsteorin”, eller, på engelska, ”activity theory”. Jag ska berätta om den teorien i nästa avsnitt.
I boken ”När havet steg” representerar Romeo, Julia och Sofi den här typen av robotar.

– Självstyrande robotar. Dessa robotar kan både styra sig själva och lära sig själva. Jag tänker mig att den grundläggande teorien (eller tekniken) bakom är maskininlärning.
I boken ”När havet steg” är det Maurice som representerar den här typen.

– Fördelad intelligens. Robotarna har olika kunskaper och egenskaper och fungerar bäst när de samarbetar. Grunden är då en självstyrande robot med någon specialinriktning.
I boken ”När havet steg” representerar robotarna från Taller César Manrique den här typen.

Mer om de olika typerna kommer i senare inlägg.

Kan datorer tänka? Ur kapitel 30 i boken ”När havet steg”

Den 2 oktober. 

I dag ska vi ta upp frågan om datorer kan tänka. Den har förstås att göra med både Systemet och med robotar, och frågan är gammal. Det är mer än hundra år sedan, i den gamla goda AI:s barndom, som filosofer kastade sig över AI-utvecklarna och menade att datorer inte alls kan ’tänka’. Allan Turing, en av ’fäderna’ till datorutvecklingen påpekade att vi inte definierat ’tänka’ tillräckligt för att kunna svara på den frågan. Jag ville vi skulle läsa Turings artikel till ett seminarium.

Förresten, att ’tänka’ kräver väl ett ’medvetande’? I så fall borde vi börja med att fråga om datorprogram har något medvetande. John Searle är en filosof som tog upp den frågan för länge sedan. Den gamla artikeln bör vi läsa om. Den handlar om ’Det kinesiska rummet’.

 I anslutning till det bör vi diskutera Turingtestet också, och varför inte Winograds utmaning? Det kinesiska rummet får vara utgångspunkten.

Jag bad Maurice vara med vid seminariet. Kan det finnas något bättre sätt att diskutera om program kan tänka än att ha med en intelligent robot? Maurice fick börja med att sammanfatta själva scenariot för det kinesiska rummet:

”Det handlar om en person som inte förstår ett ord kinesiska. Han är instängd i ett rum där han kan ta emot meddelanden genom en lucka och skicka ut meddelanden genom en annan. Till sin hjälp har han en lista med instruktioner som säger hur han ska göra.”

Maurice såg sig omkring och kommenterade:

”En mycket egendomlig situation, måste jag säga.”

”Och sen då?” sa jag som inte ville protestera. 

Ur Maurice´s synvinkel är det naturligtvis underligt att tala om ’instruktioner’. Han är säkert inte medveten om att hela hans beteende styrs av instruktioner, det vill säga program-kod.

”Personen får alltså något meddelande på kinesiska och med hjälp av instruktionerna skriver han något annat, som han skickar ut genom luckan.”

Calle, som alltid var kvick på att reagera frågade omedelbart:

”Och hur känner sig människan utanför rummet då? Det är väl en kines, antar jag?”

”Det vet jag inte”, sa Maurice och såg som vanligt oberörd ut.

”Men han måste väl vara kines om han kan skriva och läsa kinesiska!” sa Calle.

”Jag är fransman,” påpekade Maurice, ”och jag kan skriva och läsa engelska.”

”Det är inte det som det hela handlar om”, avbröt jag. Jag kände ansvar för att hålla diskussionen på rätt spår.

Nu tog Göran tag i tråden:

”Människan utanför kan tro att den som är innanför kan kinesiska. I alla fall om meddelandena hänger ihop.”

”Det är just det”, sa jag, som hade facit. ”Människan utanför vet inte att personen innanför bara handlar efter en lista med instruktioner. Det kan vara en dator, eller en” – jag tittade på Maurice – ”robot”.

”Nej, ingen robot”, sa Maurice, ”det står att det är en människa!”

Jag lade handen på hans arm för att hindra honom från att fortsätta med att säga ”jag är en robot.”  Jag ville inte att seminariedeltagarna skulle få veta det, inte ännu. Vi hade flera frågor att diskutera.

”Jag har läst den där Turing-artikeln”, sa Lasse, vår filosof. ”I själva verket kan det där sägas vara ett slags ’Turing-test’. Var det inte det du sa, Yasmine?”

Inte precis tänkte jag.

”Berätta du om Turing-testet”, bad jag honom. Men Maurice hann före:

”Alan Turing var en brittisk matematiker, född år 1912.”  

Maurice är som en uppslagsbok. Han kan imponera med sina faktakunskaper. Ville han det? Kan man säga att en robot har en vilja? 

 ”Alan Turing tyckte att frågan om datorer kan tänka var illa formulerad”, började Lasse. ”Vet vi egentligen vad vi menar med ´tänka´? I stället gjorde Turing om frågan. Låt oss föreställa oss att vi kommunicerar med någon utan att veta om denne är en människa eller en maskin, till exempel via skriven text, hur skulle vi då avgöra vilket det var? Det där blev Turing-testet.”

”Det påminner onekligen om det där kinesiska rummet”, sa Göran.

”Undrar hur han känner sig som blir lurad där utanför?” Det var Calle som fäst sig vid den emotionella sidan av problemet.

”Det där var länge sedan”, påpekade Maurice. ”Ett datorprogram klarade Turingtestet redan 2014. Det föreställde en trettonårig ukrainsk pojke”

”Men …” protesterade Cecilia, Ann och Göran i mun på varandra, och Cecilia hann först med frågan.

”Vem vet vad en sådan gosse kan tänka?” 

Jag fick en plötslig lust att peka på Maurice och fråga om de kunde avslöja honom, men jag hejdade mig. Det var inte dags ännu. Det fanns en artikel till.

”Jag läste om Winograds utmaning”, sa Cecilia.

Jag uppmuntrade henne att berätta, men Maurice hann före.

”Terry Winograd föddes år 1946 och var professor vid Stanford-universitetet. Han arbetade med naturligt språk …” 

Så långt hann Maurice innan jag avbröt honom. Det fanns risk att Maurice skulle känna till vad hans eget naturliga språk hade för bakgrund, och jag ville inte att någon skulle veta ännu.

”Låt Cecilia berätta!”

Cecilia började utan att låta någon märka att hon känt sig avbruten.

”Winograd menade att Turing-testet var otillräckligt.  Eller kanske rättare sagt att det var svårt för en människa att ställa tillräckligt avslöjande frågor. ” 

Cecilia avbröt sig. ”Jag har själv undrat över vad jag skulle fråga för att veta om jag skrev till en dator eller en människa.”

Maurice såg oberörd ut, men jag undrade om något inuti honom reagerade. Ville han svara? Kunde han berätta hur man kunde avslöja honom? Jag hade inte lyckats göra det än, i alla fall. Han verkade för mig ha en högre intelligens än normalt, det var bara det.

Cecilia fortsatte:

”Något som är avgörande för att skilja en människa från en dator är kunskapen om världen omkring. För att förstå vanligt tal (naturligt språk) räcker det inte med att förstå ord, man måste också förstå världen som orden beskriver.”

Jag kunde inte låta bli att tänka ”omvärldskunskap”, var det inte det han sagt, mannen på tåget, då när jag åkte ner till mormor?

”Du menar att bollar rullar nerför kullar?” sa Calle som ibland försökte retas med Cecilia.

”Ja, inte uppför i alla fall!” sa Cecilia, lugnet självt. Hon blev sällan provocerad.

”En annan forskare tänkte ut något som krävde omvärlds-kunskap. Han kallade det för Winograd-utmaningen, efter språkforskaren Winograd”. 

Calle tittade ut genom fönstret och började vissla. De andra hyssjade ner honom. Maurice såg oberörd ut, men hans händer låg alldeles stilla på bordet, som om han koncentrerade sig.

”Så det var det som den tredje artikeln handlade om?” sa Göran.

”Jag vet!” sa Lasse, men jag gav ordet till Cecilia och hon fortsatte.

”Man tar meningar som bara kan avgöras om man förstår omvärlden, till exempel:

’Tom kastade ner sin skolväska till Jon när han kommit X stegen.

Vad ska X vara? Uppför eller nerför?’

Ingen kunde nu vara tyst, inte ens Maurice:

”Uppför!”

Se där, tänkte jag, det där är inget test som kan avslöja Maurice i alla fall. Men det är klar att man kommit längre nu. Testet föreslogs för mer än hundra år sedan.

”Vem var det som kom upp för stegen, då?” 

Nu kom en stunds tvekan. 

”Säg om det där första”, bad Göran.

Cecilia upprepade:

’Tom kastade ner sin skolväska till Jon när han kommit X stegen.”

Och alla svarade, också Maurice:

”Tom!”

Jaha, så mycket för det testet, tänkte jag. Finns det något som kan avslöja Maurice? 

Nu var det dags att berätta om Maurice. Så jag kastade mig in i diskussionen:

”Ni har alla träffat Maurice ganska nyligen. Är det någon som tvivlar på att han tänker som en människa?”

Nu tittade alla på mig, till och med Calle.

”Vad då? Varför skulle vi göra det?”

”Ni känner ju inte honom.”

”Du menar att han skulle vara en – intelligent robot?”

”Varför inte? Sätt honom på prov. Tvivla på att han tänker som en människa och försök att avslöja honom!”

Nu hade jag satt i gång dem. Jag själv satt med facit, fast jag måste erkänna att jag var lite orolig. Vad kan avslöja Maurice, egentligen?

Göran var den förste att fråga. Han hade kanske programmerat mest av dem som var där.

”Var föddes du?” frågade han. 

Om Maurice tvekade en tusendels sekund var det nog ingen annan som märkte än jag. Svaret löd så här:

”Jag föddes av sagor och sägner en gång där furorna sjöngo sin eviga sång bland urtidens skyhöga fjäll ”

Jag blev förvånad. Vad var det där för något?

Cecilia reagerade omedelbart.

”En sång som man brukade sjunga vid Lucia.” Hon tog upp melodin och gnolade fortsättningen:

”Av solen som föll genom granarnas snår har flätats en gyllene länk i mitt hår.”

Cecilia sjunger i en kör på fritiden. Det är klart att hon skulle känna igen den sången!

Tillbaka till ursprungsfrågan: Kunde det där avslöja Maurice?

”Tänker Maurice som en människa?” frågade jag.

Ingen vågade säga något. Frågan och svaret kunde inte avgöra. Han känner till en del musik, det är tydligt, men det kan både människor och robotar göra.

Lasse kände sig tydligen utmanad. Långsamt och tvekande ställde han sin fråga.

”Vad kallades du för som barn?”

Maurice dröjde inte länge med att svara:

”Det”

Jag tittade på de andra deltagarna. Varifrån hade Maurice fått det där? ”Det”, antydde det inte mekanik? Har Maurice en sådan självkännedom? Ja, det beror förstås på vad man på TCM lyckats lära honom. Och hur mycket han lärt sig själv senare. Jag kan inte låta bli att undra hur han fick sin kunskap. Väggen hos TCM kunde förstås ge en hel del som jag inte hann uppfatta. Och artiklar han ’läst’ senare. Som till exempel dem vi diskuterade i dag. Jag hann inte komma så långt i mina tankar innan Susanne kommenterade:

”Pojken som kallade för ’Det’”, sa hon. ”Det är en gammal bok som finns i mina föräldrars bokhylla. Och den kommer i arv från mina farföräldrar.” 

Calle tittade på Maurice.

”Är det sant?” sa han. ”Kallades du verkligen för ’Det’?”

Maurice hann inte nicka. Susanne kommenterade:

”Han har visst läst mycket”, sa hon. ”Och har breda intressen. Det är ovanligt för en människa.”

”Menar du att en människa som kan mycket är …” Calle var så ivrig att hans saliv hängde i luften. Jag såg hur han sög in den igen innan han stängde munnen.

”Jag menar att det är ovanligt numera att en människa kan mycket. Allt finns att hämta på nätet.” Susanne drog ett djupt andetag innan hon fortsatte, ”Jag tror att Maurice är en robot, som har en stor databank.”

Vi diskuterade ett tag. Maurice höll sig tyst ganska länge. Slutligen böjde han ner huvudet och lät de andra examinera hans solceller. Alla var imponerade.

Till något senare seminarium borde vi nog läsa någon annan filosof. Nick Bostrom läste vi tidigare, men då för att hitta en lösning till vårt problem. Men han har framförallt diskuterat farorna med en ’Superintelligens’. Det är något som är värt att beakta. Skillnaden mellan en superintelligens och oss kan vara minst lika stor som mellan oss och en rundmask – kanske till och med större. Hur kommer en superintelligens behandla oss? Som myror eller kackerlackor? Om den lyder oss, kan vi då förklara vad vi egentligen vill och inte vill? Kan vi få den att förstå mänskliga värden, mänsklig moral? Jag tror att mitt projekt ska handla om den frågan.

Turing-testet. AI reflektioner del 4.

Hur kan man skilja på mänsklig och artificiell intelligens?
Eller:
Kan en dator ”tänka”?

En av de första som funderade över frågan var Alan Turing (1912-1954). Han är dessutom känd både för att ha utvecklat ”Turing-maskinen”, dvs tankegångarna bakom de moderna datorerna, och för att ha knäckt hemliga koder under andra världskriget.

Vi ”vanliga” människor kan säga att artificiell intelligens måste skilja sig från mänsklig till exempel genom att inte ha ”intuition” eller ha genuin skapande förmåga. Alan Turing började i stället med vår definition av ”tänkande”. Vad menar vi egentligen? Vad innebär det att ”tänka”?

Han föreslog ett enkelt test: En människa får ställa skriftliga frågor åt en motpart som sitter bakom en skärm. Kan människan då tala om ifall den som hen kommunicerar med är en dator eller en människa? (Obs att Turing föreslog detta test redan år 1950, något liknande Apples ”Siri” var inte ens planerat).

Det gäller förstås att fråga på ett bra sätt. I boken ”När havet steg” ska några människor avgöra om ”Maurice” är människa eller dator. (Kapitel 30).  Ställer de ”bra” frågor? Vilka frågor skulle du ställa?

Om artificiella neurala nätverk (27/7)

Gofai förlorade mark inte bara för att forskningsanslagen minskade utan också för att den symboliska linjen utmanades av en inriktning som kallade sig för ”subsymbolisk” eller ”artificiella neurala nätverk” (ANN). Som hörs på namnet försökte forskare och tekniker efterlikna hjärnans sätt att arbeta. Signaler sprider sig i ett nätverk i hjärnan, när människan lär sig något bildas det vägar genom nätverket.  Så fort som några neuron stimuleras ungefär samtidigt, ”lär” sig organismen eller hjärnan att de hör ihop.

Så länge som nätverken var ”platta”, kom man inte så långt med det här arbetssättet. Men så småningom hittade man på att nätverken kunde göras tredimensionella, man åstadkom ”deep learning”. Nu är det här sättet att arbeta med maskininlärning gängse, nu kan man simulera en hel del av mänsklig inlärning i maskininlärningen.

Hur ”undervisas” då ANN? De presenteras en mängd data och ska ur dessa själva (eller med mänsklig hjälp) härleda ”mönster”. Det har behövts en mängd data och en mängd träning för att de ska lära sig något.  Med bra val av exempel och ett bra nätverk kan man minska mängden träning.

Vad är ANN bra för? Jag kommer tillbaka till tillämpningarna av AI senare, men så här långt kan jag säga att ANN är bra på mönsterigenkänning. Detta innebär att man kan använda ANN för att göra olika slags diagnoser som kräver att man ser vissa mönster, t.ex. cancerfläckar på hud eller TBC skador på lungor.

I boken ”När havet steg” presenterar jag litet av ANN i kapitlen 4 och 5.

Den stora skillnaden mot GOFAI som jag ser är att GOFAI arbetar med väldefinierade problem, medan ANN arbetar ”på känn”, dvs försöker härleda en regelbundenhet ur exempel. För mig ”känns” det som om ANN är mer riskfyllt, mindre kontrollerbart. 

Mina frågor:
Vilka är skillnaderna mellan GOFAI och ANN?
Vad tänker Nick Bostrom och Max Tegmark på för slags AI?
Vilket slags AI skulle du föredra?

 

Kan intelligenta robotar klara detta problem?

I boken ”När havet steg” tävlar människor mot intelligenta robotar. Båda får nedanstående problem. Kommer robotarna att klara det? Nej, menas det i boken, människorna klarar det i vilket fall fortare.

”Vi har en gård här utanför oss, det vet ni alla om. Men vet ni hur stor den är? Det är sidornas längd vi ska låta våra tävlande räkna ut. Gården är rektangulär och den ena sidan är två meter längre än den andra. Nu tänker vi oss att vi lägger upp en grusgång längs med den ena utsidan, en gång som är exakt en meter bred. När vi kommit runt, fortsätter vi på insidan av den gång som vi gjort. Så där fortsätter vi som en spiral inåt mitten, fast med hörn, inte en rund spiral. När vi gjort en gång så att det inte finns någon mark kvar längre, är vi klara. Sedan går vi längs med grusgången, runt och runt, precis i mitten av gången. Vi har en stegmätare som talar om hur långt vi har gått. Det är 143 meter. Frågan är nu: Hur långa är gårdens sidor?”

Reflektioner om AI, del 3: GOFAI

3. GOFAI

Good old fashioned artificial intelligence, GOFAI, det var så AI startade. Den grundades på ett antal antaganden, som så småningom förstås blev alltmer ifrågasatta.

Det första antagandet var att informationen lagrades i form av fysiska symboler och att ”operationer” (beräkningar, inte bokstavligen numeriska) utfördes på dem. ”Intelligensen” kunde då liknas vid en informationsbearbetande process, det vill säga i en dator: ett datorprogram. Det här slaget av artificiell intelligens blev därför så småningom kallat för ”symbolisk”.

Om intelligens bestod i att lösa problem, måste problemet vara väldefinierat (för att kunna beskrivas i symbolisk form). Logiska slutledningar är bra exempel, det var sådana som ”The Logic theorist” med stor framgång utförde. Problem som krävde mänsklig intelligens var naturligtvis också schack. Också schackspel är väl avgränsade, det finns bara ett visst antal pjäser och deras roller är klart definierade.

Ett typexempel på ett väldefinierat problem är ”’Hanois torn”. (se kapitel 3 i När havet steg).

Ett väldefinierat problem kan bekrivas i form av en ”problemrymd”. Svårigheten ligger i att hitta vägen från start till mål, vi kan jämföra problemet med att ta sig fram i en labyrint. (kapitel 3).

GOFAI kan alltså ta sig an väldefinierade problem, och det som förefaller ”intelligent” är en systematisk sökning i en oerhört stor problemrymd (labyrint) (som i schack). Emellertid kan en kraftfull dator göra en sådan sökning, och därmed förefaller problemlösningen inte så intelligent längre.

Vad är artificiell intelligens? Definition och litet historia.

En vanlig definition av artificiell intelligens är ett datorprogram som gör något som skulle vara intelligent om människan själv utfört det. Detta ”något” har varit olika saker, och har ändrat sig allteftersom de ”intelligenta” datorprogrammen utvecklats.

Det första intelligenta datorprogrammet sägs vara Herbert Simons och Allan Newells ”The Logic Theorist”, som först demonstrerades på ett arbetsmöte år 1956.

Efter den framgången förutsade Herbert Simon att en schackspelande dator skulle kunna slå en stormästare i schack inom tjugo år. Men några år senare, år 1974, så gick AI-forskningen plötsligt in i en vägg när Pentagon och USA:s Kongress slutade att finansiera AI-forskningen, och AI var inte längre populärt.

Det dröjde ända till 1996 innan ett datorprogram slog regerande världsmästaren i schack, så han hade fel på knappt tjugo år.

Allteftersom datorprogram utvecklats har också definitionen på ”intelligens” förskjutits. Numera menar man inte att det är särskilt intelligent att spela schack, inte ens att spela ”go” (vilket japaner tränats till i decennier). I stället ligger den stora utmaningen i att förstå och producera tal (alltså prat) och att söka i stora databaser (mer om detta senare).

Andra problem som robotar (inte alltid AI) ställts inför är: att gå och att forcera hinder samt att samarbeta i realtid (som i fotbollsspel).

Fråga:

  1.  Vad tycker du är intelligent?
  2.  Vad kan en intelligent dator INTE göra just nu?
  3.  Vad KAN den göra?

 

Ämnen att diskutera inom Artificiell intelligens

De här ämnena tänkte jag ta upp (siffrorna anger kapitel i boken ”När havet steg” där respektive ämne tas upp).
Vill du diskutera något annat?

  1. Vad är artificiell intelligens?
  2. GOFAI – Good old fashioned Artificial Intelligence, vad är det? Kapitel 3.
  3. Artificiella neurala nätverk – Kapitel 4 och 5
  4.  Hur kan man skilja på mänsklig och artificiell intelligens? – Kapitel 30, 36
  5.  Robotar – en bakgrund
  6.  Robotar som verktyg – kapitel  13, kapitel 14
  7. Självständiga robotar – kapitel 37
  8. Fördelad intelligens – kapitel 33 (bara litet), kapitel 37 (något)
  9. Artificiell emotion? – kapitel 22, bl.a.
  10.  Något om Nick Bostroms tankar. Kapitel 23
  11.  AI i praktiken ?
  12.  Sammanfattning, slutsatser

Tankar kring Artificiell intelligens

På förekommen anledning vill jag ge en liten förklaring av mina tankar kring AI, artificiell intelligens.

En gång i veckan tänkte jag skriva någon reflektion, med länk till ett kapitel i boken ”När havet steg”.

Reflektionerna och frågorna kommer att presenteras dels här på Facebook (sidan ”När havet steg” och ”Vänner som gillar fabelfarmor”, dels på min hemsida, dvs just här där du är.  

Är du intresserad? Kommentera gärna, så vi kan diskutera ett ämne i en hel vecka.