I de förra reflektionerna tog jag upp robotar som verktyg (tool AI). Här ska jag fortsätta att reflektera över vad självständiga robotar kan vara, varför vi skulle vilja ha sådana och vilka konsekvenser sådana robotar skulle kunna innebära.
Om en robot ska vara självständig, bör den ha en allmän intelligens, minst motsvarande en människas för att vi ska acceptera den. En schackspelande robot eller en självkörande bil skulle vi inte kalla för en självständig robot. På engelska kallas en artificiell allmän intelligens för AGI, vilket passar bra för svenska också: Artificiell Generell Intelligens.
Låt oss nu tänka oss att vi har en människoliknande robot framför oss, ungefär som den här:
https://www.youtube.com/watch?v=SsYLOxYmFbk
Vad tänker vi om den? Vad tror vi att den kan göra?
Det naturliga är att bemöta den som en människa. Vi vill prata med den, men störs av att munnen inte rör sig. Vi undrar hur den är, vad den kan göra. En kritisk granskare undrar om den här filmen bara visar en docka med en inspelning inne sig.
AI forskare envisas med att säga att människoliknande robotar med AGI kan komma inom en kort tid – exakt hur lång kan ingen säga. Låt oss då fortsätta.
Varför skulle vi vilja konstruera eller äga en människoliknande robot? Ett skäl kan ligga i att vi vill göra en kopia av oss själva. Något som kan överleva oss, möjligen? Den japanske professorn som ligger bakom den där kvinnliga roboten har också gjort en robot som liknar honom själv, se här: http://www.geminoid.jp/en/index.html. Nu tror jag inte att den roboten har ens i närheten av den intelligens, kunskap eller förmåga som professor Ishiguro själv, jag ser den som ett ”skal”.
Den första reflektionen människor i allmänhet har angående robotar är att robotar aldrig kan bli som människor. Robotar skulle inte kunna skapa, de skulle inte ha några känslor, ingen ”intuition” och min egen tanke var att de inte skulle kunna lösa gestaltväxlingsproblem (se kapitel 36 i När havet steg, problemet finns här: http://yvonnewaern.se). Det är inskränkt att tänka så, menar Nick Bostrom (författaren till ”Superintelligence); har vi en superintelligens (enligt hans definition som jag kommer till senare), ska de förstås klara allt.
Vad ska vi då ha en sådan intelligens till? Vi kan tänka oss att vi har några riktigt svåra problem som vi vill att den ska hjälpa oss med. Just nu kan jag tänka mig att klimathotet är ett sådant. Låt oss lägga några data och några förslag i AGI-robotens knä och låt den räkna ut den bästa möjliga lösningen.
Men vänta nu! Vad är det som säger att en så intelligent robot skulle vilja svara på våra inskränkta frågor? Den har kanske siktet inställt på något helt annat, något som inte alls har med människor att göra. Det riktigt knepiga med en superintelligens är inte att den kan vara fientligt inställd till människor, så där som i ”Terminator” eller andra skräckfilmer av Sc ience fiction typ, utan att den helt enkelt kan ha andra mål. Den kan till exempel vilja ha en egen planet att leva på och antingen utplåna människor på jordklotet eller använda alla jordens resurser och bygga rymdskepp för att ta sig till den närmaste galaxen.
En artificiell generell intelligens behöver alltså inte ha samma mål som människorna som skapat den. Finns det något sätt som vi kan använda för att skapa mål åt den, mål som stämmer med våra? Vänta, jag ska kolla i Bostroms bok och återkommer.
Om någon vill läsa på tidigare ger jag referensen här:
Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Paper back: Oxford University Press 2016 (första upplagan 2014).