Etikettarkiv: kontroll av AI

Reflektioner över artificiell intelligens. Del 13: Den tekniska singulariteten – upptäckt och kritik

Har du hört talas om den tekniska singulariteten? Det hade inte jag förrän ganska nyligen. Frågan är OM eller snarare NÄR den artificiella intelligensen uppnår och passerar den mänskliga.
Låt mig gå direkt på kritiken, som har två olika aspekter (minst):

  1. Är det överhuvudtaget tekniskt möjligt att konstruera en artificiell intelligens som kan mäta sig med den mänskliga?

2) Varför ska den mänskliga intelligensen tas som förebild för den artificiella?

  1. Möjligt?

Mina tekniska vänner reagerade genast. Nej, en teknisk singularitet finns bara i några tokars huvuden, nämligen framförallt hos dem som har anknytning till ”Future of life institute”, grundad av bland annat Max Tegmark (som förövrigt har fått smeknamnet ”Mad Max”).

Varför skulle det vara så omöjligt att uppnå teknisk singularitet? Max Tegmark själv säger att den enda fysiska begränsningen ligger i ljusets hastighet.

Kan det vara datorernas kapacitet som gör singulariteten omöjlig? Ja, nuvarande hårdvara verkar inte räcka till. Det går för långsamt (även om det är långt från ljusets hastighet), det krävs för mycket minne (även om man har superdatorer) och det kräver för mycket energi. (Det senaste förvånade mig som trodde att informationsteknik var energisnål, vilket alltså är fel.)

Nya datorer då? Kvantdatorer till exempel? Nej, mina tekniska vänner är inte bara envisa, de är också realistiska (möjligen beror det på att de själva jobbar med problemen): En allmän generell intelligens liknande människans kräver så mycket ”hårdvara” – mest beroende på att det vi människor är riktigt bra på är ”inbyggt” i oss. Vi behöver aldrig tänka på hur vi pratar, eller hur vi gör när vi blir kära, till exempel,. För att simulera sådant som är ”hardwired” behövs en mängd beräkningskapacitet.

Nu närmar sig den andra punkten i omöjligheten: Vi vet helt enkelt inte hur människor bär sig åt för att göra allt det där som är så självklart. Hur samordnas öga och hand till exempel? Själv blev jag helt förbluffad av hur enkelt det var att hålla bussen kvar på vägen den första gången jag satte mig vid en ratt (och jag ska inte tala om när och var och varför just här, det får vänta till mina memoarer). Det mesta av det som vi är riktigt bra på: att se ”gestalter” i fläckar, att förstå och få fram ord, att känna medlidande, att bli arga och att älska, allt detta går !automatiskt”, det vill säga utan något som helst medveten ansträngning. Hur gör vi? Det är ”inbyggt” i oss och ska en artificiell apparat kunna göra något liknande krävs en massa studier av dels situationerna omkring de här prestationerna, dels prestationerna själva. Och tro nu inte att sådana studier saknas, men de är långt från människans gåta.

Så låt mig gå till den andra frågan.

2) Varför ska just människan vara en förebild för Artificiell intelligens?

Dagens artificiella intelligens har den mänskliga hjärnan som förebild. Man bygger artificiella neurala nätverk och tycker man har kommit väldigt långt när man börjat bygga nätverken i tre dimensioner och inte bara i två. Detta kallas för ”deep learning” och den tanken har lett till ett stort språng i utvecklingen.

Men, många tänkare har påpekat att det var länge sedan som människor övergav idén att bygga flygplan som flög som fåglar. Det gick bara inte att få dem att flaxa med vingarna. När man slutade tänka flaxande gick det att få fram flygande föremål, med viss övertalning, förstås, men ändå. Så varför tänka mänsklig hjärna när man bygger artificiell intelligens?

Den kritiken låter ju helt rimlig, men … När det gäller flygplan kände man till en hel del om förutsättningarna för flygande: aerodynamik till exempel. Det var ”bara” att utveckla den kunskapen och så gick det att komma runt problemet att vingarna inte kunde röra sig. När det gäller intelligens är det så att vi vare sig känner till förutsättningarna eller ens är överens om vad som är ”intelligent”. Är inte myrorna intelligenta kanske, se vad de kan åstadkomma! Och delfinerna lär vara smartare än vi, på vilket sätt då?

Smarta konstruktörer och algoritmer har fått datorer att slå världsmästare i schack och i ”Go”, men då är dessa områden bland de mest utforskade av mänsklig ”smart” verksamhet. Låt oss gå till ”Allmän Generell Intelligens” – A G I – i stället. Vad är det? Hur gör vi?

Slutsatser

Det finns vare sig tekniska eller kunskapsmässiga förutsättningar för att bygga en artificiell generell intelligens.  Kan vi då vara trygga? Kan vi sluta upp med alla förberedelser för att hindra en superintelligens att ta över jorden?

Nja, jag är osäker. När jag söker efter information på Google, till exempel. Får jag verkligen allt? Hur utvald och anpassad är den informationen? Jag blir inte bara imponerad utan också litet rädd när jag pratar med ”Siri”. Kanske det är Google och Apple vi ska vara rädda för? Det tekniska undret kan utveckla sig själv. Det är det Bostrom menar när han talar om ”Superintelligens”. Den har lämnat människan långt bakom sig.

Reflektioner över artificiell intelligens del 12. Att kontrollera en ”superintelligens”.

Låt oss nu tänka oss att våra intelligenta tekniker lyckats med att konstruera en (eller flera)  apparater som kan fungera på ett intelligent sätt. Dessa har i sin tur utvecklat sig själva till en superintelligens, dvs en intelligens som är vida ”högre” än vår – så mycket högre att det inte går att mäta på intelligenstest, vi skulle kunna säga att vår intelligens är som kackerlackors i förhållande till superintelligensen.

Hur ska vi kunna leva ihop med en sådan intelligens? Vilka risker kan vi råka ut för? Hur kan vi förebygga dem?

Elon Musk (Teslas utvecklare) är en AI skeptiker och säger följande:

”Vi bara har ”fem till tio procents chans” att lyckas kontrollera en generell artificiell intelligens.”

(Ur:  https://www.idg.se/2.1085/1.693118/elon-musk-ai )

Att kontrollera en superintelligens är ett ämne som Nick Bostrom tar upp i sin  bok ”Superintelligence – paths, dangers, strategies”.

Han menar att det i princip finns två sätt att kontrollera det intelligenta systemet:

  1. Att  begränsa systemets förmåga
  2. Att påverka systemets mål

Begränsa förmågan

Den första metoden innebär att försöka låsa in AI (boxing method)

Här argumenterar Bostrom mycket övertygande om att det inte kommer att gå. Ett superintelligent artificiellt system kommer alltid att överlista oss på något sätt och ta sig ur det ”fängelse” vi skapat.

Den andra är att försöka få systemet att intressera sig för något som inte är i vägen för oss, t.ex. umgås med andra eller till och med engagera sig i projektet som den är delaktig i. Även om jag inte helt förstår vad Bostrom är ute efter, kan jag förstå att det kan vara svårt för en människa med vår begränsade intelligens att förstå vad som kan engagera en superintelligens, och vilka konsekvenser en sådan distraktion kan få.

Den tredje förmågebegränsningen ligger helt enkelt i att begränsa systemets tillgång till information. Man kan göra det genom att låta den köras på system med långsam hårdvara eller mycket begränsat minne. Det här är en möjlig kontrollmetod, nackdelen är att den kommer att drabba oss själva också. Vi kommer inte att kunna utnyttja det super intelligenta systemet så som vi tänkt oss.

Den fjärde metoden är att lägga ut snubbeltrådar i form av diagnostiska test på systemet. Om testet visar att systemet är ”på fel väg”, stoppar det systemet. Kan det funka? Ja, i vilket fall borde det vara obligatoriskt att använda sådana diagnostiska test i utvecklingsfasen.

Välja motivation

Kan inte de som konstruerar systemet ge det en lämplig motivaton redan under konstruktionsfasen? Hur skulle man kunna göra det?

Ett sätt är att direkt specificera vilket mål som systemet ska arbeta mot. Vi känner möjligen igen den här tanken från Asimovs robotlagar: En robot får aldrig skada en människa, etc.

Problemet med en direkt specifikation är att vi inte kan specificera vad vi egentligen menar. Om man skadar en människa, men räddar en mängd andra, hur stämmer det med lagen?  Om en masochist eller sadist hindras från att skada sig själv eller andra, blir inte den skadad då?

De här invändningarna bygger på att vår kommunikation inte är byggd för specifikationer utan för intuitiv förståelse. Så fort som vi försöker specificera något, råkar vi ut för definitionsproblem.

OK, låt oss då gå till nästa förslag: Att begränsa agentens handling till ett visst område, t.ex. till att svara på frågor (i stil med Googles söktjänst). Vad kan det vara för farligt med det? Faran ligger i att systemet kan bli alltför ambitiöst: det kan bokstavligt talat ”gå över lik” för att få tag i den information du behöver. Tänk på tortyr för att få information. Ja, även om vi säger åt systemet att tortyr inte är tillåtet kommer nästa problem: vad definierar vi med tortyr?

För varje möjlig inskränkning vi gör kan Bostrom hitta på ett motexemel, så låt mig snabbt gå över till den tredje metoden.

Den tredje metoden att välja motivation för ett superintelligent system är att låta en människa gå in och godkänna resultatet av systemets handlande. Detta skulle i och för sig innebära att man inte kan utnyttja systemet fullt ut (en människa är ju definitionsmässigt inte lika intelligent som ett superintelligent system),men man kan åtminstone stoppa systemet så snart som det ser ut att föra åt alldeles fel håll.

Slutsatsen är alltså: Låt en människa kontrollera systemets utfall så att det inte kommer i konflikt med vad människor eller skadar människor. Litet svagt, kanske, men ändå det bästa för tillfället.

Jag inbjuder dig till att själv läsa Nick Bostroms bok och komma med ytterligare metoder eller rentutav invändningar mot filosofen. Jag känner att jag inte har den filosofiska träning som krävs för att hitta på möjliga absurda konsekvenser av ett superintelligent systems handlande.

Nick Bostrom har fått ett stort forskningsanslag från Elon Musks institut: futureoflife. (http://futureoflife.org)

Elon Musk tror alltså på Nick Bostrom och hans möjligheter att styra AI utvecklingen i en positiv riktning.

Referens: Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.