Reflektioner över artificiell intelligens. Del 8. Fördelad intelligens

Tidigare har jag skrivit om robotar. Då har jag tänkt mig en intelligens som befunnit sig inne i en och samma varelse – en människoliknande robot. Men många har påpekat att intelligens mycket väl kan fördelas över flera organismer, eller över en organism och en artefakt. Här ska jag tala om fördelning över organismer/varelser/robotar, alltså enheter (förlåt ordet!) av samma slag.

Tanken att en grupp varelser skulle kunna ha en högre sammanlagd intelligens än var och en av de ingående varelserna är inte på något sätt ny. Vi behöver bara sätta oss ner vid en myrstack eller en bikupa och fundera över vad varelserna där gör egentligen. Hur kan myror bygga en myrstack, skaffa sig mat, föda upp nya generationer? Och hur bär sig bin åt för att göra sina celler, hitta nektar och göra honung av den? Varje enskild myra och varje enstaka bi verkar inte särskilt intelligent. I själva verket förefaller deras handlingasr helt meningslösa när vi studerar varje individ för sig.

Vi vet att vi har fel. Vi kan se det från resultatet. En myrstack är mycket mer än en slumpvis samling myror, en bikupa surrar av meningsfullhet.

Mitt första möte med begreppet ”fördelad intelligens” kom genom Douglas Hofstadters bok ”Goedel, Escher, Bach: An eternal Golden Braid, som kom ut redan år 1979 och kom att betyda en hel del för många nyfikna kognitions- och datavetare av min generation. Du kanske har ett annat möte, till exempel med Ed Hutchins: ”Cognition in the wild” eller Max Tegmarks ”Life 3.0”. Eller du kan ha varit med om ”team building” på jobbet eller andra samarbetsstärkande aktiviteter.

Vad lär vi oss av att samarbeta med andra eller att läsa vad andra tänkt om samarbete?

  1. Det första är att aktiviteten/verksamheten ska kunna delas upp så att varje individ kan arbeta på sin egen del. Varje myra bär på ett strå till stacken brukar vi säga, och då tänker vi på att en stack består av en mängd strån (eller barr). Ett enkelt exempel är att gräva diken, ett mer komplicerat är att bygga hus.
  2. Det andra är att alla enskilda delar har ett gemensamt överordnat mål: att bygga en myrstack eller att åstadkomma ett dike, till exempel.
  3. Det tredje är att arbetet måste organiseras på något sätt. Alla myror kan inte bära på samma strå, alla människor kan inte gräva på samma ställe. Självklart?Ja, men för mer komplicerade sammanhang krävs organisationsteori.
  4. I mer komplicerad verksamhet är det fördelaktigt om det finns individer med olika slags kompetens. Till och med i en bikupa har vi en arbetsfördelning: det finns fältbin som söker efter nektar, am-bin, som ger de växande larverna mat, bygg-bin, som bygger celler, etc.

5) En viktig aspekt är att de olika ”agenterna” måste kunna kommunicera med varandra. Det behöver inte att de ska behöva använda ”naturligt språk”, alltså mänsklig kommunikation. Myrorna stöter på varandra när de träffar på varann, bina sägs ”dansa”.Artificiella agenter utbyter information elektromagnetiskt. Kommunikationen tar tid och resurser.

En av de första insikterna jag fick ur Hofstadters bok var att en verksamhet kan betraktas på flera olika ”nivåer”. Det som jag gör som enskild individ har en mening för mig, men en organisationsteoretiker kan se en annan mening med hela avdelningens arbete, o.s.v: en kommunalpolitiker betraktar lokalsamhällets aktiviteter medan en rikspolitiker borde se till hela landets sammanlagda rörelser, produkter och möjligheter.

Bilden är ur Hofstadters bok sid 310. Titta noga, så ser du flera nivåer. Överst står ”MU”.

Om vi nu ser på en grupp robotar, kan dessa alltså åstadkomma mer än var och en av dem, om de samarbetar, men vi kan för den skull inte säga att fördelad AI är vare sig effektiv eller ineffektiv, god eller ond innan vi ser hela sammanhanget av artificiella agenter.

Så långt jag förstår är det så att problem som kan tacklas av fördelade agenter måste kunna delas upp och agenterna måste få var sin uppgift, vare sig det är som på ett löpande band eller olika delar av en samma uppgift, som när det gäller att gräva ett dike.. Det går inte att samarbeta kring gestaltväxlingsproblem (till exempel det jag använde i den tidigare reflektionen), inte heller går det särskilt bra att trängas på ett och samma ställe när man gräver ett dike. Självklart?

Hos bin och myror är fördelningen inbyggd, vi människor måste skapa en organisation Hur är det då med artificiella agenter? Just nu måste vi planera fördelningen innan vi sätter i gång arbetet. Kan vi stoppa mitt i och göra om?  Kan vi få artificiella agenter  att kompensera för dålig organisation? Så där som människor gör? Inte vet jag. Men den som planerar fördelad artificiell intelligens måste planera fördelningen. Arbetet kan gå så fort att vi inte hinner stoppa det om något går snett.

Reflektioner över Artificiell intelligens, del 7. Självständiga robotar

I de förra reflektionerna tog jag upp robotar som verktyg (tool AI). Här ska jag fortsätta att reflektera över vad självständiga robotar kan vara, varför vi skulle vilja ha sådana och vilka konsekvenser sådana robotar skulle kunna innebära.

Om en robot ska vara självständig, bör den ha en allmän intelligens, minst motsvarande en människas för att vi ska acceptera den. En schackspelande robot eller en självkörande bil skulle vi inte kalla för en självständig robot. På engelska kallas en artificiell allmän intelligens för AGI, vilket passar bra för svenska också: Artificiell Generell Intelligens.

Låt oss nu tänka oss att vi har en människoliknande robot framför oss, ungefär som den här:

https://www.youtube.com/watch?v=SsYLOxYmFbk

Vad tänker vi om den? Vad tror vi att den kan göra?

Det naturliga är att bemöta den som en människa. Vi vill prata med den, men störs av att munnen inte rör sig. Vi undrar hur den är, vad den kan göra. En kritisk granskare undrar om den här filmen bara visar en docka med en inspelning inne sig.

AI forskare envisas med att säga att människoliknande robotar med AGI kan komma inom en kort tid – exakt hur lång kan ingen säga. Låt oss då fortsätta.

Varför skulle vi vilja konstruera eller äga en människoliknande robot? Ett skäl kan ligga i att vi vill göra en kopia av oss själva. Något som kan överleva oss, möjligen? Den japanske professorn som ligger bakom den där kvinnliga roboten har också gjort en robot som liknar honom själv, se här: http://www.geminoid.jp/en/index.html. Nu tror jag inte att den roboten har ens i närheten av den intelligens, kunskap eller förmåga som professor Ishiguro själv, jag ser den som ett ”skal”.

Den första reflektionen människor i allmänhet har angående robotar är att robotar aldrig kan bli som människor. Robotar skulle inte kunna skapa, de skulle inte ha några känslor, ingen ”intuition” och min egen tanke var att de inte skulle kunna lösa gestaltväxlingsproblem (se kapitel 36 i När havet steg, problemet finns här: http://yvonnewaern.se). Det är inskränkt att tänka så, menar Nick Bostrom (författaren till ”Superintelligence); har vi en superintelligens (enligt hans definition som jag kommer till senare), ska de förstås klara allt.

Vad ska vi då ha en sådan intelligens till? Vi kan tänka oss att vi har några riktigt svåra problem som vi vill att den ska hjälpa oss med. Just nu kan jag tänka mig att klimathotet är ett sådant. Låt oss lägga några data och några förslag i AGI-robotens knä och låt den räkna ut den bästa möjliga lösningen.

Men vänta nu! Vad är det som säger att en så intelligent robot skulle vilja svara på våra inskränkta frågor? Den har kanske siktet inställt på något helt annat, något som inte alls har med människor att göra. Det riktigt knepiga med en superintelligens är inte att den kan vara fientligt inställd till människor, så där som i ”Terminator” eller andra skräckfilmer av Sc ience fiction typ, utan att den helt enkelt kan ha andra mål. Den kan till exempel vilja ha en egen planet att leva på och antingen utplåna människor på jordklotet eller använda alla jordens resurser och bygga rymdskepp för att ta sig till den närmaste galaxen.

En artificiell generell intelligens behöver alltså inte ha samma mål som människorna som skapat den. Finns det något sätt som vi kan använda för att skapa mål åt den, mål som stämmer med våra? Vänta, jag ska kolla i Bostroms bok och återkommer.

Om någon vill läsa på tidigare ger jag referensen här:

Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Paper back: Oxford University Press 2016 (första upplagan 2014).

Ett problem ur När Havet steg, kap 36.

”Vi har en gård här utanför oss, det vet ni alla om. Men vet ni hur stor den är? Det är sidornas längd vi ska låta våra tävlande räkna ut. Gården är rektangulär och den ena sidan är två meter längre än den andra. Nu tänker vi oss att vi lägger upp en grusgång längs med den ena utsidan, en gång som är exakt en meter bred. När vi kommit runt, fortsätter vi på insidan av den gång som vi gjort. Så där fortsätter vi som en spiral inåt mitten, fast med hörn, inte en rund spiral. När vi gjort en gång så att det inte finns någon mark kvar längre, är vi klara. Sedan går vi längs med grusgången, runt och runt, precis i mitten av gången. Vi har en stegmätare som talar om hur långt vi har gått. Det är 143 meter. Frågan är nu: Hur långa är gårdens sidor?”

Problemet kommer ursprungligen ur Lewis Carrolls bok ”A tangled tale”, som du kan hitta här:

https://ebooks.adelaide.edu.au/c/carroll/lewis/tangled/

Reflektioner över Artificiell intelligens. Del 6: Robotar som verktyg

Vad ska vi ha robotar till? Hur ska de tjäna oss? Många tänker sig robotar som artificiella människor, men vad är det som säger att robotar ska ha mål eller bete sig som människor? I många sammanhang har människor större nytta av en eller flera robotar om de fungerar som verktyg (tool AI, enligt Nick Bostrom).
Låt oss tänka oss en robot ungefär som en ordbehandlare. Den gör exakt vad vi säger åt den, bara litet mer (korrigerar stavningen till exempel). Tänk dig en hushållsrobot som handlar mat och lagar den, som plockar undan och dammsuger, så bekvämt. Du bara befaller vad roboten ska göra och så gör den det.
Vad är det för skillnad mellan en människoliknande robot i så fall och ett ”vanligt” datorprogram?

För det första kan den göra så mycket mer än datorprogram gör just nu. Den är inte specialkonstruerad för en enda uppgift, utan har en bredare kompetens. Men måste den likna en människa för det?
Det är förstås bekvämt för en användare med en robot som kan göra det som en människa kan göra. Man behöver inte tveka om robotens funktioner; den kan helt enkelt göra samma saker som en människa. En användare behöver inte en flersidig manual som beskriver olika aktiviteter; en användare tänker bara på sig själv och vad hen kan göra. Sedan kan vi förstås diskutera om roboten ska ha liknande kroppsliga begränsningar: det kanske inte vore så dumt om den kunde bära tyngre föremål, orka mera, se bättre och höra bättre. Då kunde den verkligen hjälpa en människa. Huvudsaken är att den gör det som användaren vill. En robot som verktyg behöver inte ha någon fri vilja, vi säger bara vad den ska göra och resultatet blir därefter.

Ja, en sak till, det ska förstås vara lätt att tala om för roboten vad den ska göra. Vi vill inte ha något krångligt ”gränssnitt”, inte en manual som talar om vilka knappar vi ska trycka på eller vilka ord vi ska använda. Vi vill kunna umgås med roboten som med en människa. Forskarna talar om detta som ”naturligt språk”, det kan vara skrivet eller talat. Flera exempel på ett gränssnitt med naturligt språk finns redan nu. Det är ”Siri”, men hennes handlingar är relativt begränsade. Också sökningen i internet, t.ex. med hjälp av Google sker med naturligt språk. Människoliknande i kommunikationen, men inte i formen. De är båda exempel på verktyg.
Drömexempel på tjänare som fungerar som verktyg är anden i flaskan, den som kan ge människan allt hon önskar. Ett annat exempel är en sexrobot som enbart underkastar sig och inte har några egna önskemål.
En robot som verktyg skulle vi kunna jämföra med en hund: Den kan hjälpa oss med många olika aktiviteter, inom hundens begränsningar och med hundens särskilda förmågor. Den förstår inom vissa gränser vad vi vill om vi säger till den. Men det tar lång tid att träna en robot. Åtminstone med dagens maskininlärningstekniker.
Även om vi är långt från människoliknande verktygsrobotar just nu kan vi fråga oss om det kan vara något fel på att utveckla robotar som verktyg. Om de inte gör något annat än vad människan bestämmer kan de väl inte utgöra någon risk för människan?

Då kan vi ta ett motargument med hjälp av en slags ”robot” som finns redan nu: de moderna målsökande raketerna. De tjänar sin herre genom att skada herrens fiende. De är visserligen inte människoliknande, men de kan belysa problemen med att använda robotar eller överhuvudtaget AI som verktyg.
Verktygsrobotar lyder under människan och är därmed underkastade människans välkända svagheter: kort planeringshorisont, kort minne, oförmåga att förstå komplicerade samband samt det värsta: människans egoism och människans ondska. Kan vi göra människan god kvarstår ändå de andra problemen. Vore det inte bra att ha en robot som kunde hindra människan från att göra dumheter? En som åtminstone kunde tala om när människan är på ”fel” väg?

Vi kommer då in på helt autonoma människoliknande robotar,  jag ska diskutera dem litet nästa vecka.

Men först: ett exempel på vad det kan innebära att ha en robot som ”verktyg” finns i kapitel 14 i boken ”När havet steg”. Här är det träningen som tas upp. Tänk dig en lat robot som den här:

Ur: När havet steg. Kapitel 14. Kan en robot agera självständigt?

I dag vaknar jag utsövd, nöjd med mig själv att jag klarat av att skaffa en flygbiljett åt mormor. Det är bara resten kvar.
Nu gäller det att träna Romeo så att han kan följa mormor till flygplatsen.

”Jag tänker träna Romeo”, meddelar jag vid frukostbordet.
”Vad då? Till vad?” undrar mormor. ”Jag ska hjälpa dig, jag vet hur man gör. Jag lärde honom att flytta mig omkring i lägenheten. ”
”Hur då?”
”Det var inte lätt”, suckar mormor. ”Först pekade jag på mig och på honom och försökte teckna att han skulle ta i mig och lyfta upp mig. Det fungerade inte alls.”
”Hade du inte fått några instruktioner på hur du skulle göra med honom?”
Jag blir upprörd över att man ger gamla människor assistenter utan någon som helst bruksanvisning.
”Nej”, säger mormor. ”Jag var tvungen att ta honom i handen, och lägga hans arm om min midja.”
Hon skrattar vid minnet.
”Då ramlade jag ur sängen, för han höll inte i mig.”
”Gjorde det inte ont?”
”Äsch, inte värre än annars. Egentligen var det bra att jag ramlade. Det verkade som om Romeo förstod vad jag behövde. Han böjde sig ner och lyfte upp mig i sängen igen.”
”Men det var inte det du ville!”
”Nej, men det var i alla fall en början. Han hade lyft mig. Jag tackade honom och gjorde samma sak en gång till. En gång till ramlade jag i golvet, men nu var jag förberedd. Han lyfte upp mig i sängen igen. Så där höll vi på ett tag, tills jag hade fått ordentligt ont i vänster lår också.”
Det där var väl inget bra. Att hon inte sagt något till mig! Men vi har inte haft någon kontakt med varandra sedan hon kom hem från sjukhuset. Under den tiden har det hänt mycket, både i den stora världen där havet fortsätter att stiga och hos mormor där robotarna kommit som hennes assistenter.
”Till sist vägrade jag att låta Romeo lägga mig i sängen. Jag spjärnade mot och sprattlade och pekade på stolen framför VIU:n.”
”Förstod han då?”
”Inte genast, men efter många gånger, jag har tappat räkningen, vände han bara och gick till stolen. Där släppte han ner mig ganska oförsiktigt, så jag höll på att ramla igen.”
Jag ser situationen framför mig och blir både upprörd och full i skratt. Hur kan man ge gamla sjuka människor en robot som riskerar att bryta benen av dem? Tur att mormor är så tålmodig. Och så tuff.

Så det är bara genom att visa om och om igen som Romeo kan lära sig? Det stämmer i och för sig med vad jag läst om neuronnät. Upprepning är inlärningens moder, för artificiell intelligens likaväl som för mänsklig.
Men nu går det inte att försöka lära Romeo genom upprepning. Det är alldeles för omständligt. Jag kan inte låta honom om och om igen bära mormor nerför trappan, sedan gå in i en taxi, fara till flygplatsen och gå till incheckningen. Det skulle ta alldeles för lång tid och bli alldeles för dyrt.
Nej, den enda lösningen är att mormor visar honom till flygplatsen, hon kan ju klara det mesta, utom själva resan. Och så får Romeo ta sig tillbaka själv. Om han nu klarar det, förstås. Jag måste kolla med mormor.

”Mormor”, säger jag medan hon sitter upptagen med någon av de gamla filmerna framför VIU:n.
”Ja?” Låter hon inte lite otålig? Jag måste ju fråga henne, det handlar om hennes hemresa.
”Om Romeo tar dig till flygplatsen, kan han då ta sig hem på egen hand?”
”Ingen aning”, säger mormor. ”Jag har då aldrig sett honom göra något på egen hand.”

Hur gör vi då? Det kanske räcker med att jag lär honom att gå tillbaka till taxin. Jag ber taxichauffören vänta medan Romeo checkar in mormor, och så får Romeo gå tillbaka. Eller, förresten, ännu bättre: Taxichauffören får gå med in och så tar han med Romeo tillbaka. Förträfflig idé.

Jag jagar ut på stan för att ta reda på en taxi med en chaufför  har en tolkningsapparat. Det är inte så lätt. Numera är de flesta bilar självkörande. Taxibilar med chaufförer finns bara till för turister som inte ens vet vad orterna heter här på Lanzarote. Fördelen är att chaufförerna måste ha tolknings-apparater.
Efter några försök hittar jag en taxi.
”Jag skulle behöva ha hjälp med en skjuts till flygplatsen.” Taxichauffören skakar på huvudet och säger något som i min TOLK låter som:
”Inte få utanför Haría.”
Jag tror att det innebär att han inte får köra någon utanför Haría. Energiransoneringen gäller tydligen taxibilar också
Nästa bil, då? Där finns en skylt utanpå med texten ”Distancia”, och jag tror att det betyder ”avstånd”. Jag hoppas att han kan köra utanför Haría. Det visar sig vara riktigt. Jag försöker förklara problemet för honom: Han ska skjutsa två personer till flygplatsen, följa dem in till incheckningen och sedan ta en person tillbaka till Haría.
Han bara skakar på huvudet. Förstår han inte? Jag är på väg att dra med honom in till mormor, när min TOLK äntligen låter mig förstå vad som är fel: Han får inte parkera bilen och gå från den förrän hans dagspass är slut. Är det likadant med alla taxi? Ja, säger den här chauffören i alla fall.  Han är nog en robot som vare sig behöver gå på toa eller äta.
Jag går till ytterligare en, han förstår inte ett skvatt. Eftersom jag inte ser någon mer taxibil med skylten ”Distancia”, så ger jag upp.

Romeo får helt enkelt lära sig att gå tillbaka till taxin på egen hand. Vi kan förstås inte träna på flygplatsen. I stället tar jag med Romeo till gatan och ställer honom vid porten. Där befaller jag honom att stå stilla. Det gjorde han ju när jag var hos TCM, så det borde han förstå.
Själv går jag till Plaza de la Constitución, där taxibilarna står, och så ber jag en köra mig till mormors hus. Där står Romeo snällt och väntar. Så här långt fungerar det alltså.
Jag visar in Romeo i taxin och ber chauffören köra tillbaka till torget där vi börjat. Han ser något undrande ut, men jag betalar innan jag går in och han kör. På torget går jag av. Jag säger åt Romeo att gå ut också.
”Sale!” befaller jag. Innan jag började det här Romeo-projektet slog jag upp vad ”gå av” heter på spanska och lärde mig det. Det ligger lätt i munnen, naturligt för en svensk tunga. Sedan gäller det att få honom att gå hem utan mig.
”A casa!” säger jag och viftar med händerna för att skjutsa i väg honom.
Romeo tittar på mig med sina oseende ögon och han drar faktiskt på munnen.
”Gå hem!” förtydligar jag det, fast jag mycket väl vet att han inte förstår svenska.
”A casa!” säger jag en gång till.
Romeo tar mig under armen och börjar gå, åt rätt håll.

Det är ju klart att det inte kan fungera vid första försöket. Kanske jag borde ha mormor med för att få snabbare kommunikation? Jag går hem tillsammans med Romeo och så börjar jag om hela proceduren igen, nu med mormor.
Han bär henne i rullstolen nerför trapporna, medan jag hämtar en taxi. Vi in i taxin, tillbaka till torget, där vi går av. Så långt funkar det i alla fall, men nu ska vi få Romeo att gå tillbaka ensam.
Mormor säger åt Romeo att gå hem, men han viker inte från hennes sida. Med prat och gester förklarar mormor att hon vill stanna på detta vackra torg, där det fortfarande växer något träd och ännu klättrar några skuggande klängväxter på en inhägnad. ”I solen”, lägger hon till och vänder upp ansiktet mot den ljusa fläck som kan vara sol. Jag beundrar hennes tålamod. Det är förstås så här hon gjort för att undervisa robotarna.
Romeo ställer sig vid rullstolen och håller fast i handtagen. Det är som förgjort. Då får jag syn på caféet i hörnet på torget. Där kan vi sitta utanför och dricka kaffe, mormor och jag, medan Romeo går hem. Mormor förklarar, Romeo lyssnar till synes uppmärksamt. Jag går in i caféet och beställer kaffe åt mig och mormor. Romeo ser ut som om han inte vet om han hör till mig eller mormor, men till slut bestämmer han sig och stannar hos mormor.

När jag kommer ut igen, säger mormor åt Romeo att gå hem. Hon till och med förklarar att han får komma tillbaka om en timme och hämta henne. Inget resultat. Romeo står som en soldat vid hennes rullstol och låtsas inte förstå någonting. Det är möjligt att han faktiskt inte fattar vad hon vill. Mormor och jag dricker kaffe, men Romeo får ingenting. Han vill nog inte ha någonting heller. Till slut ger jag upp. Vi går ut på torget igen och går hem tillsammans. Jag tycker inte det tjänar något till att ta en taxi den lilla biten.

Jag har inte råd att träna Romeo på det här sättet. Det måste finnas någon annan lösning att få honom att bara lämna mormor på flygplatsen.

Jag vet, jag ska be Juan om hjälp. Jag är lite förargad för att Juan gjort sina robotar så osjälvständiga. Vad är det för idé med det?

Bra kommentar från Lars Oestreicher!

Tack, Lasse för din insiktsfulla kommentar!
Jag har själv funderat över
1) om den där ”Superintelligensen” måste ha ”kropp”

2) Varför vi människor kallar vissa autonomer för ”robotar” och andra inte (exemplet ”drönare”, ”självkörande bil”)

Värt att fundera på i samband med ”superintelligens”, som jag ska skriva om när jag läst Nick Bostroms bok ”superintelligens” en gång till.

 

Reflektioner över Artificiell intelligens, del 5. Robotar – en bakgrund

Tidigare diskuterade jag Turing-testet – dvs hur vi kan skilja mänskligt och artificiellt tänkande åt. Intressant nog kom många kommentarer att handla om robotar. På Turings tid var robotar inte aktuella. Den artificiella intelligensen fanns i datorer, och vi kom att uppleva den genom att sitta framför en datorskärm. Det gemensamma för interaktionen med människan var den skrivna texten. Vi vare sig såg eller hörde författaren. Ett tidigt exempel är ”psykoterapeuten” Eliza.

Hur upplever då moderna människor begreppet ”robot”?

För de flesta människor innebär ordet ”robot” en artificiell, människoliknande varelse. Ordet sägs ursprungligen härröra ur en pjäs av den tjeckiske författaren Karel Capek år 1920, och betyder ungefär ’”slav”, från ordet ”robota” som i slaviska språk betyder ”utföra tungt, enformigt arbete”.

En självstyrande maskin som kan ersätta människan i olika arbeten ses ofta som en robot – t.ex. en robotdammsugare eller en robotgräsklippare. När människan måste styra maskinen (t.ex. en mixer eller en motorsåg) kallas apparaten sällan för en robot.

En självkörande bil räknas inte som ”robot”, inte heller en ”drönare”. Det kan bero på att dessa automater fått egna benämningar. Däremot finns det robotar inom industrin som kvalificerar för beteckningen, även om de inte alls är människoliknande.

Vad krävs då för att konstruera en ”robot”?

Tekniskt sett kräver robotik kunskaper från många områden, till exempel: fysik, datavetenskap, el-lära och matematik. Moderna robotar som ska samarbeta med människor i s.k. ”naturligt språk” kräver en hel del lingvistik kunskap. 

Inom bokens och filmens värld används begreppet relativt fritt, och fantasin kan flöda och ge upphov till både hjälpsamma och fientliga robotar, ”dumma” och ”intelligenta”. Hur människoliknande en robot är kan också variera, från föga (t.ex. i filmen ”Hitchhiker’s guide to the galaxy” eller ”Starwars” från 1977), till mycket (t.ex. i filmen ”Blade runner”).

I boken ”När havet steg” har jag velat skilja på tre olika typer av robotar:

– Robotar som verktyg. Dessa robotar gör bara vad de lärt sig och är beroende av människor för att kunna fungera. Den grundläggande teorien bakom den här typen är den s.k. ”verksamhetsteorin”, eller, på engelska, ”activity theory”. Jag ska berätta om den teorien i nästa avsnitt.
I boken ”När havet steg” representerar Romeo, Julia och Sofi den här typen av robotar.

– Självstyrande robotar. Dessa robotar kan både styra sig själva och lära sig själva. Jag tänker mig att den grundläggande teorien (eller tekniken) bakom är maskininlärning.
I boken ”När havet steg” är det Maurice som representerar den här typen.

– Fördelad intelligens. Robotarna har olika kunskaper och egenskaper och fungerar bäst när de samarbetar. Grunden är då en självstyrande robot med någon specialinriktning.
I boken ”När havet steg” representerar robotarna från Taller César Manrique den här typen.

Mer om de olika typerna kommer i senare inlägg.

Kan datorer tänka? Ur kapitel 30 i boken ”När havet steg”

Den 2 oktober. 

I dag ska vi ta upp frågan om datorer kan tänka. Den har förstås att göra med både Systemet och med robotar, och frågan är gammal. Det är mer än hundra år sedan, i den gamla goda AI:s barndom, som filosofer kastade sig över AI-utvecklarna och menade att datorer inte alls kan ’tänka’. Allan Turing, en av ’fäderna’ till datorutvecklingen påpekade att vi inte definierat ’tänka’ tillräckligt för att kunna svara på den frågan. Jag ville vi skulle läsa Turings artikel till ett seminarium.

Förresten, att ’tänka’ kräver väl ett ’medvetande’? I så fall borde vi börja med att fråga om datorprogram har något medvetande. John Searle är en filosof som tog upp den frågan för länge sedan. Den gamla artikeln bör vi läsa om. Den handlar om ’Det kinesiska rummet’.

 I anslutning till det bör vi diskutera Turingtestet också, och varför inte Winograds utmaning? Det kinesiska rummet får vara utgångspunkten.

Jag bad Maurice vara med vid seminariet. Kan det finnas något bättre sätt att diskutera om program kan tänka än att ha med en intelligent robot? Maurice fick börja med att sammanfatta själva scenariot för det kinesiska rummet:

”Det handlar om en person som inte förstår ett ord kinesiska. Han är instängd i ett rum där han kan ta emot meddelanden genom en lucka och skicka ut meddelanden genom en annan. Till sin hjälp har han en lista med instruktioner som säger hur han ska göra.”

Maurice såg sig omkring och kommenterade:

”En mycket egendomlig situation, måste jag säga.”

”Och sen då?” sa jag som inte ville protestera. 

Ur Maurice´s synvinkel är det naturligtvis underligt att tala om ’instruktioner’. Han är säkert inte medveten om att hela hans beteende styrs av instruktioner, det vill säga program-kod.

”Personen får alltså något meddelande på kinesiska och med hjälp av instruktionerna skriver han något annat, som han skickar ut genom luckan.”

Calle, som alltid var kvick på att reagera frågade omedelbart:

”Och hur känner sig människan utanför rummet då? Det är väl en kines, antar jag?”

”Det vet jag inte”, sa Maurice och såg som vanligt oberörd ut.

”Men han måste väl vara kines om han kan skriva och läsa kinesiska!” sa Calle.

”Jag är fransman,” påpekade Maurice, ”och jag kan skriva och läsa engelska.”

”Det är inte det som det hela handlar om”, avbröt jag. Jag kände ansvar för att hålla diskussionen på rätt spår.

Nu tog Göran tag i tråden:

”Människan utanför kan tro att den som är innanför kan kinesiska. I alla fall om meddelandena hänger ihop.”

”Det är just det”, sa jag, som hade facit. ”Människan utanför vet inte att personen innanför bara handlar efter en lista med instruktioner. Det kan vara en dator, eller en” – jag tittade på Maurice – ”robot”.

”Nej, ingen robot”, sa Maurice, ”det står att det är en människa!”

Jag lade handen på hans arm för att hindra honom från att fortsätta med att säga ”jag är en robot.”  Jag ville inte att seminariedeltagarna skulle få veta det, inte ännu. Vi hade flera frågor att diskutera.

”Jag har läst den där Turing-artikeln”, sa Lasse, vår filosof. ”I själva verket kan det där sägas vara ett slags ’Turing-test’. Var det inte det du sa, Yasmine?”

Inte precis tänkte jag.

”Berätta du om Turing-testet”, bad jag honom. Men Maurice hann före:

”Alan Turing var en brittisk matematiker, född år 1912.”  

Maurice är som en uppslagsbok. Han kan imponera med sina faktakunskaper. Ville han det? Kan man säga att en robot har en vilja? 

 ”Alan Turing tyckte att frågan om datorer kan tänka var illa formulerad”, började Lasse. ”Vet vi egentligen vad vi menar med ´tänka´? I stället gjorde Turing om frågan. Låt oss föreställa oss att vi kommunicerar med någon utan att veta om denne är en människa eller en maskin, till exempel via skriven text, hur skulle vi då avgöra vilket det var? Det där blev Turing-testet.”

”Det påminner onekligen om det där kinesiska rummet”, sa Göran.

”Undrar hur han känner sig som blir lurad där utanför?” Det var Calle som fäst sig vid den emotionella sidan av problemet.

”Det där var länge sedan”, påpekade Maurice. ”Ett datorprogram klarade Turingtestet redan 2014. Det föreställde en trettonårig ukrainsk pojke”

”Men …” protesterade Cecilia, Ann och Göran i mun på varandra, och Cecilia hann först med frågan.

”Vem vet vad en sådan gosse kan tänka?” 

Jag fick en plötslig lust att peka på Maurice och fråga om de kunde avslöja honom, men jag hejdade mig. Det var inte dags ännu. Det fanns en artikel till.

”Jag läste om Winograds utmaning”, sa Cecilia.

Jag uppmuntrade henne att berätta, men Maurice hann före.

”Terry Winograd föddes år 1946 och var professor vid Stanford-universitetet. Han arbetade med naturligt språk …” 

Så långt hann Maurice innan jag avbröt honom. Det fanns risk att Maurice skulle känna till vad hans eget naturliga språk hade för bakgrund, och jag ville inte att någon skulle veta ännu.

”Låt Cecilia berätta!”

Cecilia började utan att låta någon märka att hon känt sig avbruten.

”Winograd menade att Turing-testet var otillräckligt.  Eller kanske rättare sagt att det var svårt för en människa att ställa tillräckligt avslöjande frågor. ” 

Cecilia avbröt sig. ”Jag har själv undrat över vad jag skulle fråga för att veta om jag skrev till en dator eller en människa.”

Maurice såg oberörd ut, men jag undrade om något inuti honom reagerade. Ville han svara? Kunde han berätta hur man kunde avslöja honom? Jag hade inte lyckats göra det än, i alla fall. Han verkade för mig ha en högre intelligens än normalt, det var bara det.

Cecilia fortsatte:

”Något som är avgörande för att skilja en människa från en dator är kunskapen om världen omkring. För att förstå vanligt tal (naturligt språk) räcker det inte med att förstå ord, man måste också förstå världen som orden beskriver.”

Jag kunde inte låta bli att tänka ”omvärldskunskap”, var det inte det han sagt, mannen på tåget, då när jag åkte ner till mormor?

”Du menar att bollar rullar nerför kullar?” sa Calle som ibland försökte retas med Cecilia.

”Ja, inte uppför i alla fall!” sa Cecilia, lugnet självt. Hon blev sällan provocerad.

”En annan forskare tänkte ut något som krävde omvärlds-kunskap. Han kallade det för Winograd-utmaningen, efter språkforskaren Winograd”. 

Calle tittade ut genom fönstret och började vissla. De andra hyssjade ner honom. Maurice såg oberörd ut, men hans händer låg alldeles stilla på bordet, som om han koncentrerade sig.

”Så det var det som den tredje artikeln handlade om?” sa Göran.

”Jag vet!” sa Lasse, men jag gav ordet till Cecilia och hon fortsatte.

”Man tar meningar som bara kan avgöras om man förstår omvärlden, till exempel:

’Tom kastade ner sin skolväska till Jon när han kommit X stegen.

Vad ska X vara? Uppför eller nerför?’

Ingen kunde nu vara tyst, inte ens Maurice:

”Uppför!”

Se där, tänkte jag, det där är inget test som kan avslöja Maurice i alla fall. Men det är klar att man kommit längre nu. Testet föreslogs för mer än hundra år sedan.

”Vem var det som kom upp för stegen, då?” 

Nu kom en stunds tvekan. 

”Säg om det där första”, bad Göran.

Cecilia upprepade:

’Tom kastade ner sin skolväska till Jon när han kommit X stegen.”

Och alla svarade, också Maurice:

”Tom!”

Jaha, så mycket för det testet, tänkte jag. Finns det något som kan avslöja Maurice? 

Nu var det dags att berätta om Maurice. Så jag kastade mig in i diskussionen:

”Ni har alla träffat Maurice ganska nyligen. Är det någon som tvivlar på att han tänker som en människa?”

Nu tittade alla på mig, till och med Calle.

”Vad då? Varför skulle vi göra det?”

”Ni känner ju inte honom.”

”Du menar att han skulle vara en – intelligent robot?”

”Varför inte? Sätt honom på prov. Tvivla på att han tänker som en människa och försök att avslöja honom!”

Nu hade jag satt i gång dem. Jag själv satt med facit, fast jag måste erkänna att jag var lite orolig. Vad kan avslöja Maurice, egentligen?

Göran var den förste att fråga. Han hade kanske programmerat mest av dem som var där.

”Var föddes du?” frågade han. 

Om Maurice tvekade en tusendels sekund var det nog ingen annan som märkte än jag. Svaret löd så här:

”Jag föddes av sagor och sägner en gång där furorna sjöngo sin eviga sång bland urtidens skyhöga fjäll ”

Jag blev förvånad. Vad var det där för något?

Cecilia reagerade omedelbart.

”En sång som man brukade sjunga vid Lucia.” Hon tog upp melodin och gnolade fortsättningen:

”Av solen som föll genom granarnas snår har flätats en gyllene länk i mitt hår.”

Cecilia sjunger i en kör på fritiden. Det är klart att hon skulle känna igen den sången!

Tillbaka till ursprungsfrågan: Kunde det där avslöja Maurice?

”Tänker Maurice som en människa?” frågade jag.

Ingen vågade säga något. Frågan och svaret kunde inte avgöra. Han känner till en del musik, det är tydligt, men det kan både människor och robotar göra.

Lasse kände sig tydligen utmanad. Långsamt och tvekande ställde han sin fråga.

”Vad kallades du för som barn?”

Maurice dröjde inte länge med att svara:

”Det”

Jag tittade på de andra deltagarna. Varifrån hade Maurice fått det där? ”Det”, antydde det inte mekanik? Har Maurice en sådan självkännedom? Ja, det beror förstås på vad man på TCM lyckats lära honom. Och hur mycket han lärt sig själv senare. Jag kan inte låta bli att undra hur han fick sin kunskap. Väggen hos TCM kunde förstås ge en hel del som jag inte hann uppfatta. Och artiklar han ’läst’ senare. Som till exempel dem vi diskuterade i dag. Jag hann inte komma så långt i mina tankar innan Susanne kommenterade:

”Pojken som kallade för ’Det’”, sa hon. ”Det är en gammal bok som finns i mina föräldrars bokhylla. Och den kommer i arv från mina farföräldrar.” 

Calle tittade på Maurice.

”Är det sant?” sa han. ”Kallades du verkligen för ’Det’?”

Maurice hann inte nicka. Susanne kommenterade:

”Han har visst läst mycket”, sa hon. ”Och har breda intressen. Det är ovanligt för en människa.”

”Menar du att en människa som kan mycket är …” Calle var så ivrig att hans saliv hängde i luften. Jag såg hur han sög in den igen innan han stängde munnen.

”Jag menar att det är ovanligt numera att en människa kan mycket. Allt finns att hämta på nätet.” Susanne drog ett djupt andetag innan hon fortsatte, ”Jag tror att Maurice är en robot, som har en stor databank.”

Vi diskuterade ett tag. Maurice höll sig tyst ganska länge. Slutligen böjde han ner huvudet och lät de andra examinera hans solceller. Alla var imponerade.

Till något senare seminarium borde vi nog läsa någon annan filosof. Nick Bostrom läste vi tidigare, men då för att hitta en lösning till vårt problem. Men han har framförallt diskuterat farorna med en ’Superintelligens’. Det är något som är värt att beakta. Skillnaden mellan en superintelligens och oss kan vara minst lika stor som mellan oss och en rundmask – kanske till och med större. Hur kommer en superintelligens behandla oss? Som myror eller kackerlackor? Om den lyder oss, kan vi då förklara vad vi egentligen vill och inte vill? Kan vi få den att förstå mänskliga värden, mänsklig moral? Jag tror att mitt projekt ska handla om den frågan.

Turing-testet. AI reflektioner del 4.

Hur kan man skilja på mänsklig och artificiell intelligens?
Eller:
Kan en dator ”tänka”?

En av de första som funderade över frågan var Alan Turing (1912-1954). Han är dessutom känd både för att ha utvecklat ”Turing-maskinen”, dvs tankegångarna bakom de moderna datorerna, och för att ha knäckt hemliga koder under andra världskriget.

Vi ”vanliga” människor kan säga att artificiell intelligens måste skilja sig från mänsklig till exempel genom att inte ha ”intuition” eller ha genuin skapande förmåga. Alan Turing började i stället med vår definition av ”tänkande”. Vad menar vi egentligen? Vad innebär det att ”tänka”?

Han föreslog ett enkelt test: En människa får ställa skriftliga frågor åt en motpart som sitter bakom en skärm. Kan människan då tala om ifall den som hen kommunicerar med är en dator eller en människa? (Obs att Turing föreslog detta test redan år 1950, något liknande Apples ”Siri” var inte ens planerat).

Det gäller förstås att fråga på ett bra sätt. I boken ”När havet steg” ska några människor avgöra om ”Maurice” är människa eller dator. (Kapitel 30).  Ställer de ”bra” frågor? Vilka frågor skulle du ställa?