Låt oss nu tänka oss att våra intelligenta tekniker lyckats med att konstruera en (eller flera) apparater som kan fungera på ett intelligent sätt. Dessa har i sin tur utvecklat sig själva till en superintelligens, dvs en intelligens som är vida ”högre” än vår – så mycket högre att det inte går att mäta på intelligenstest, vi skulle kunna säga att vår intelligens är som kackerlackors i förhållande till superintelligensen.
Hur ska vi kunna leva ihop med en sådan intelligens? Vilka risker kan vi råka ut för? Hur kan vi förebygga dem?
Elon Musk (Teslas utvecklare) är en AI skeptiker och säger följande:
”Vi bara har ”fem till tio procents chans” att lyckas kontrollera en generell artificiell intelligens.”
(Ur: https://www.idg.se/2.1085/1.693118/elon-musk-ai )
Att kontrollera en superintelligens är ett ämne som Nick Bostrom tar upp i sin bok ”Superintelligence – paths, dangers, strategies”.
Han menar att det i princip finns två sätt att kontrollera det intelligenta systemet:
- Att begränsa systemets förmåga
- Att påverka systemets mål
Begränsa förmågan
Den första metoden innebär att försöka låsa in AI (boxing method)
Här argumenterar Bostrom mycket övertygande om att det inte kommer att gå. Ett superintelligent artificiellt system kommer alltid att överlista oss på något sätt och ta sig ur det ”fängelse” vi skapat.
Den andra är att försöka få systemet att intressera sig för något som inte är i vägen för oss, t.ex. umgås med andra eller till och med engagera sig i projektet som den är delaktig i. Även om jag inte helt förstår vad Bostrom är ute efter, kan jag förstå att det kan vara svårt för en människa med vår begränsade intelligens att förstå vad som kan engagera en superintelligens, och vilka konsekvenser en sådan distraktion kan få.
Den tredje förmågebegränsningen ligger helt enkelt i att begränsa systemets tillgång till information. Man kan göra det genom att låta den köras på system med långsam hårdvara eller mycket begränsat minne. Det här är en möjlig kontrollmetod, nackdelen är att den kommer att drabba oss själva också. Vi kommer inte att kunna utnyttja det super intelligenta systemet så som vi tänkt oss.
Den fjärde metoden är att lägga ut snubbeltrådar i form av diagnostiska test på systemet. Om testet visar att systemet är ”på fel väg”, stoppar det systemet. Kan det funka? Ja, i vilket fall borde det vara obligatoriskt att använda sådana diagnostiska test i utvecklingsfasen.
Välja motivation
Kan inte de som konstruerar systemet ge det en lämplig motivaton redan under konstruktionsfasen? Hur skulle man kunna göra det?
Ett sätt är att direkt specificera vilket mål som systemet ska arbeta mot. Vi känner möjligen igen den här tanken från Asimovs robotlagar: En robot får aldrig skada en människa, etc.
Problemet med en direkt specifikation är att vi inte kan specificera vad vi egentligen menar. Om man skadar en människa, men räddar en mängd andra, hur stämmer det med lagen? Om en masochist eller sadist hindras från att skada sig själv eller andra, blir inte den skadad då?
De här invändningarna bygger på att vår kommunikation inte är byggd för specifikationer utan för intuitiv förståelse. Så fort som vi försöker specificera något, råkar vi ut för definitionsproblem.
OK, låt oss då gå till nästa förslag: Att begränsa agentens handling till ett visst område, t.ex. till att svara på frågor (i stil med Googles söktjänst). Vad kan det vara för farligt med det? Faran ligger i att systemet kan bli alltför ambitiöst: det kan bokstavligt talat ”gå över lik” för att få tag i den information du behöver. Tänk på tortyr för att få information. Ja, även om vi säger åt systemet att tortyr inte är tillåtet kommer nästa problem: vad definierar vi med tortyr?
För varje möjlig inskränkning vi gör kan Bostrom hitta på ett motexemel, så låt mig snabbt gå över till den tredje metoden.
Den tredje metoden att välja motivation för ett superintelligent system är att låta en människa gå in och godkänna resultatet av systemets handlande. Detta skulle i och för sig innebära att man inte kan utnyttja systemet fullt ut (en människa är ju definitionsmässigt inte lika intelligent som ett superintelligent system),men man kan åtminstone stoppa systemet så snart som det ser ut att föra åt alldeles fel håll.
Slutsatsen är alltså: Låt en människa kontrollera systemets utfall så att det inte kommer i konflikt med vad människor eller skadar människor. Litet svagt, kanske, men ändå det bästa för tillfället.
Jag inbjuder dig till att själv läsa Nick Bostroms bok och komma med ytterligare metoder eller rentutav invändningar mot filosofen. Jag känner att jag inte har den filosofiska träning som krävs för att hitta på möjliga absurda konsekvenser av ett superintelligent systems handlande.
Nick Bostrom har fått ett stort forskningsanslag från Elon Musks institut: futureoflife. (http://futureoflife.org)
Elon Musk tror alltså på Nick Bostrom och hans möjligheter att styra AI utvecklingen i en positiv riktning.
Referens: Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.