Reflektioner över artificiell intelligens, 11. Vad ska man tänka på vid utvecklingen av AI?

I det tidigare avsnittet visade jag hur många olika tillämpningar som redan finns som på något sätt baserar sig på artificiell intelligens. Nästa steg är att reflektera över om det inte behövs någon reglering av utvecklingen? Kan man låta olika företag utveckla AI utan kontroll?

Jag har botaniserat litet på nätet och ger här några egna kommentarer samt citat. 

I Sverige har regeringen lagt upp följande förslag för fortsatt användning av AI:

(ur: https://www.regeringen.se/informationsmaterial/2018/05/nationell-inriktning-for-artificiell-intelligens/ )

Regeringens bedömning är att:
– Sverige behöver utveckla regler, standarder, normer och etiska
principer i syfte att vägleda
etisk och hållbar AI och användning av AI.
– Sverige behöver verka för svenska och internationella standarder och regelverk som främjar användning av AI och
förebygger risker.
– Sverige behöver kontinuerligt se över behovet av digital infrastruktur för att tillvarata möjligheterna som AI kan ge.
  Sverige behöver fortsätta arbetet med att tillgängliggöra data som kan utgöra en samlad infrastruktur för att använda AI på områden där det tillför nytta.
– Sverige behöver fortsätta att ta en aktiv roll i EU:s arbete med att främja digitalisering och med att möjliggöra nyttan som användningen av AI kan medföra.

I Sverige har några alltså redan tänkt på att AI kan innebära risker. I USA finns en hel grupp med forskare och tekniker som arbetar med att reflektera över hur man bäst kan förbereda sig för en bra framtid för mänskligheten. Elon Musk (uppfinnaren av Tesla) har samlat en hel del goda krafter till ett institut han kallar för futureoflife. (http://futureoflife.org)

Ett av områdena där handlar om framtida artificiell intelligens, där målet är att skapa en välvillig intelligens. Så här skriver Elon Musk:

Det som vi verkligen behöver är att försäkra oss om att livet fortsätter in i framtiden. .. Det är bättre att förhindra en negativ utveckling än att försöka förändra den när den väl inträffat.” (min översättning)

När det gäller A:s framtida utveckling är det ”säkerhetsforskning” som ligger på institutets agenda.

Detta institut har redan startat en mängd relativt storskaliga projekt  med detta generella mål, en översikt finns här: https://futureoflife.org/ai-safety-research/

Det största projektet leds av  Nick Bostrom: ”Strategic Research Center for Artificial Intelligence” i Oxford, England, och stöds med 1.500.000 dollar.

Låt oss se litet på hur realistiskt projektet att utveckla en superintelligent AI kan vara. Nyligen talade Max Tegmark på en konferens i Stockholm och visade då bland annat en bild, som illustrerar vad AI kan åstadkomma nu och inom den närmaste framtiden. Bilden visar ett tänkt landskap, där olika intellektuella färdigheter finns utlagda som berg och dalar. De förmågor som redan karakteriserar artificiell intelligens är utlagda som vatten, de förmågor som AI ännu inte klarar av visas som berg.

Vi ser att utantillinlärning, schack och Go ligger gott och väl under AI:s vattenyta, medan taligenkänning, översättning, bildtolkning och bilkörning ligger alldeles i strandkanten. Investering och social interaktion ligger en bit högre upp, medan konst, film, författande, programmering, vetenskap och AI design ligger uppe på bergtopparna.

AI landskap, från ett föredrag av Max Tegmark, 2018.

Det påpekas ofta i sådana här sammanhang att det är svårt att skapa program som kan utföra uppgifter som är enkla för människan, t.ex. tolka bilder eller förstå naturligt språk. Detta kallas för ”Moravecs paradox”. Varför är det så? Jo, vår hjärna ägnar en stor del av sin beräkningskapacitet (faktiskt så mycket som mer än en fjärdedel) åt ”lågnivå” beräkningar av det slaget. Den är alltså specialkonstruerad för att förstå tal och känna igen bilder, framförallt människoansikten. Den som vill åstadkomma en liknande prestation hos en maskin måste ”gå runt” problemet på något sätt.

Det här är reflektioner som flera AI tänkare framfört, och en del är redan ”överkörda” av utvecklingen. Vi talar nu på allvar om självkörande bilar, och i tidigare reflektioner har jag visat att både taligenkänning och översättning är realistiska mål för utvecklingen inom artificiell intelligens. De där böckerna och tavlorna som producerats av något AI program är mer lustiga än allvarliga, men snart kanske jag får hålla mig för skratt.

Max Tegmark själv påpekar i sin bok ”Life 3.0” att vi måste tänka efter före. Frågor som vi bör ställa oss innan vi själva utvecklar (eller låter andra utveckla) AI system är till exempel följande:

Vilken slags framtid vill vi ha? Ska vi utveckla dödliga autonoma vapen? Vad gör vi med automatisering av arbeten? Vad ska vi råda dagens barn att satsa på för utbildning? Vad vill vi helst: Att det kommer nya arbeten som ersätter gamla eller att samhället blir fritt från arbete, så att människan kan ägna sig åt vad hon vill och maskiner ersätter allt nödvändigt arbete? Kommer vi att kunna kontrollera intelligensen eller kommer den att kontrollera oss? Kommer intelligenta maskiner att ersätta oss eller att leva bredvid oss? Vad innebär det att vara människa i ett liv med artificiell intelligens? Vad skulle vi vilja att det innebar och hur kan vi göra så att det blir så som vi vill?

Hur vi än svarar, kan vi inte låta artificiell intelligens utvecklas ”av sig själv”. Vi måste ta ställning i några av de ovanstående frågorna.

Max Tegmarks mål är en ”vänlig” AI . Han vill förhindra att AI av sig själv eller av andra utvecklas på ett negativt sätt. En skadlig artificiell intelligens kan vara intressant för stormakter som vill få ett militärt övertag, och det finns redan självstyrande robotar men också tankar på att utveckla robotarméer.

Men vi ska inte tro att artificiell intelligens behöver vara medvetet (eller designmässigt) fientlig för att på sikt kunna skada mänskligheten. Det behövs bara att ett AI system får för sig att sträva efter ett mål som kan komma i konflikt med människor. Tegmark tar upp ett exempel: Tänk dig att du ber ett AI system att skapa en fabrik för att göra gem. Det här systemet får för sig att det högsta målet är att producera så många gem som möjligt. För att kunna göra det behöver det material, och då börjar det använda allt som finns omkring i världen som material, till slut kan det till och med börja använda människokroppar. Ja, detta är ju bara ett tänkt scenario, men framtidsforskare utgår ofta från just sådana.

Några slutsatser om framtiden för AI som Max Tegmark drar är följande:

När vi tillåter att system i verkligheten använder AI är det särskilt viktigt att vi gör systemen robusta, dvs vi måste kunna verifiera dem, validera dem, göra den säkra och kunna kontrollera dem. Den här kontrollen är speciellt viktig för vapensystem som kontrolleras av AI

AI kan göra våra juridiska system mer rättvisa och effektiva om vi bara kan göra robot-domarna opartiska och ”genomskinliga”.

Våra lagar måste uppdateras, till exempel när det gäller integritetsfrågor, ansvarighetsfrågor och regleringar

Om AI ersätter oss människor på arbetsmarknaden måste vi kunna få del av den välståndsökning som AI kan skapa.

Om vi blir arbetslösa, måste vi kunna få ut en ”mening” ur livet som inte enbart har med jobbet att göra.

(Min egen kommentar är att jag hoppas människor vill få ut något annat av livet än bara njutning, annars kan vi ju leva på droger medan AI jobbar).

Hur ska vi då kunna få en önskvärd utveckling av artificiell intelligens? Nästa gång ska jag berätta dels om Elon Musks farhågor om Artificiell intelligens, dels om Nick Bostroms bok ”Superintelligens”.

Kommentera

E-postadressen publiceras inte. Obligatoriska fält är märkta *

Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.