Varför skriver jag science fiction?

Jag har en svaghet – nej flera, men det är en jag ska erkänna just nu: jag skriver science fiction, som visst helst ska förkortas SF. Ja, en gång i tiden läste jag SF också, men det är länge sedan – kanske för länge sedan.

Som alla goda navelskådare försöker jag förstå varför jag gillar att skriva science fiction. Kanske det beror på att jag aldrig fick studera vidare efter realexamen? Jag läste ändå, förstås, vem skulle kunna hindra mig? Men den där vägledningen jag skulle ha behövt för att förstå matematiken, fysiken, den fick jag aldrig. I stället läste jag populärvetenskap. Någonstans har jag hört att populärvetenskap är en pedagogisk lögn. Ja, i så fall är det lögn jag bygger mitt science fiction skrivande på. Ingen förstår ”big bang” eller ”svarta hål” utan metaforer. Själva namnen är missvisande: det var ingen smäll, och hålet är inte vare sig svart eller hål. Men ändå, vi förstår, intuitivt. Så ser jag science fiction. Det är fiktion redan när jag läser, det är bilder jag kan förstå, det är idéer att spinna vidare på.

Det blev inte fysik jag snodde ihop mina historier av. I stället blev det något jag krupit litet längre in under skinnet på: artificiell intelligens. Som kognitionspsykolog hade jag förstås lärt känna försöken att simulera mänskligt tänkande. Jag hade försökt mig på det klassiska programmeringsspråket LISP, det som man använde för att programmera ”god, gammaldags AI”. Jag hade låtit en dator snurra runt i en evig loop när jag skrev en rekursion utan godtagbar slutpunkt. En nyttig lärdom, men en som jag inte använder när jag skriver löpande text. Visst snurrar jag runt, men jag brukar hitta en punkt. Då och då.

Science fiction – det kallas visst också för spekulativ fiktion, och det tycker jag låter som en tautologi – dvs man säger samma sak på olika sätt. Det hjälper mig inte, så jag går till webben och ser denna definition av SF:

“Utforskandet av människans natur, identitet och existentiella villkor i framtida miljöer, alternativa universa, samhällen eller mentala tillstånd där nya teknologiska & vetenskapliga förutsättningar spelar en avgörande roll”.

Det låter inte så tolkigt, och än bättre blir det om jag gräver ner mig i detaljer och kommer till ”cyberpunk”:

 ”Berättelserna i denna sci fi genre utspelar sig ofta i en nära och dystopisk framtid där nätet (internet), artificiell intelligens, cyborgs och tekniska inplantat utgör viktiga ingredienser.  Ofta står den lilla människans kamp mot mäktiga företag eller förtryckare i centrum.”

(Citaten kommer från https://www.scifishop.se/science-fiction/)

Tja, om jag måste, så kan jag placera in min lilla fyrkantiga kloss i det åttkantiga hålet. Boken ”När havet steg” handlar om artificiell intelligens som styr världen i miljöförstöringens spår.

Ska jag egentligen bry mig om definitioner? Ska jag inte bara låta mig föras med i robotarnas värld? Det känns både mer intressant och stimulerande. Jag fortsätter nog med den superintelligente Maurice. Hur ska han klara av att betjäna det världsomfattande Systemet (byggt på AI, förstås)? Jag får väl se.

Reflektioner över artificiell intelligens. Del 13: Den tekniska singulariteten – upptäckt och kritik

Har du hört talas om den tekniska singulariteten? Det hade inte jag förrän ganska nyligen. Frågan är OM eller snarare NÄR den artificiella intelligensen uppnår och passerar den mänskliga.
Låt mig gå direkt på kritiken, som har två olika aspekter (minst):

  1. Är det överhuvudtaget tekniskt möjligt att konstruera en artificiell intelligens som kan mäta sig med den mänskliga?

2) Varför ska den mänskliga intelligensen tas som förebild för den artificiella?

  1. Möjligt?

Mina tekniska vänner reagerade genast. Nej, en teknisk singularitet finns bara i några tokars huvuden, nämligen framförallt hos dem som har anknytning till ”Future of life institute”, grundad av bland annat Max Tegmark (som förövrigt har fått smeknamnet ”Mad Max”).

Varför skulle det vara så omöjligt att uppnå teknisk singularitet? Max Tegmark själv säger att den enda fysiska begränsningen ligger i ljusets hastighet.

Kan det vara datorernas kapacitet som gör singulariteten omöjlig? Ja, nuvarande hårdvara verkar inte räcka till. Det går för långsamt (även om det är långt från ljusets hastighet), det krävs för mycket minne (även om man har superdatorer) och det kräver för mycket energi. (Det senaste förvånade mig som trodde att informationsteknik var energisnål, vilket alltså är fel.)

Nya datorer då? Kvantdatorer till exempel? Nej, mina tekniska vänner är inte bara envisa, de är också realistiska (möjligen beror det på att de själva jobbar med problemen): En allmän generell intelligens liknande människans kräver så mycket ”hårdvara” – mest beroende på att det vi människor är riktigt bra på är ”inbyggt” i oss. Vi behöver aldrig tänka på hur vi pratar, eller hur vi gör när vi blir kära, till exempel,. För att simulera sådant som är ”hardwired” behövs en mängd beräkningskapacitet.

Nu närmar sig den andra punkten i omöjligheten: Vi vet helt enkelt inte hur människor bär sig åt för att göra allt det där som är så självklart. Hur samordnas öga och hand till exempel? Själv blev jag helt förbluffad av hur enkelt det var att hålla bussen kvar på vägen den första gången jag satte mig vid en ratt (och jag ska inte tala om när och var och varför just här, det får vänta till mina memoarer). Det mesta av det som vi är riktigt bra på: att se ”gestalter” i fläckar, att förstå och få fram ord, att känna medlidande, att bli arga och att älska, allt detta går !automatiskt”, det vill säga utan något som helst medveten ansträngning. Hur gör vi? Det är ”inbyggt” i oss och ska en artificiell apparat kunna göra något liknande krävs en massa studier av dels situationerna omkring de här prestationerna, dels prestationerna själva. Och tro nu inte att sådana studier saknas, men de är långt från människans gåta.

Så låt mig gå till den andra frågan.

2) Varför ska just människan vara en förebild för Artificiell intelligens?

Dagens artificiella intelligens har den mänskliga hjärnan som förebild. Man bygger artificiella neurala nätverk och tycker man har kommit väldigt långt när man börjat bygga nätverken i tre dimensioner och inte bara i två. Detta kallas för ”deep learning” och den tanken har lett till ett stort språng i utvecklingen.

Men, många tänkare har påpekat att det var länge sedan som människor övergav idén att bygga flygplan som flög som fåglar. Det gick bara inte att få dem att flaxa med vingarna. När man slutade tänka flaxande gick det att få fram flygande föremål, med viss övertalning, förstås, men ändå. Så varför tänka mänsklig hjärna när man bygger artificiell intelligens?

Den kritiken låter ju helt rimlig, men … När det gäller flygplan kände man till en hel del om förutsättningarna för flygande: aerodynamik till exempel. Det var ”bara” att utveckla den kunskapen och så gick det att komma runt problemet att vingarna inte kunde röra sig. När det gäller intelligens är det så att vi vare sig känner till förutsättningarna eller ens är överens om vad som är ”intelligent”. Är inte myrorna intelligenta kanske, se vad de kan åstadkomma! Och delfinerna lär vara smartare än vi, på vilket sätt då?

Smarta konstruktörer och algoritmer har fått datorer att slå världsmästare i schack och i ”Go”, men då är dessa områden bland de mest utforskade av mänsklig ”smart” verksamhet. Låt oss gå till ”Allmän Generell Intelligens” – A G I – i stället. Vad är det? Hur gör vi?

Slutsatser

Det finns vare sig tekniska eller kunskapsmässiga förutsättningar för att bygga en artificiell generell intelligens.  Kan vi då vara trygga? Kan vi sluta upp med alla förberedelser för att hindra en superintelligens att ta över jorden?

Nja, jag är osäker. När jag söker efter information på Google, till exempel. Får jag verkligen allt? Hur utvald och anpassad är den informationen? Jag blir inte bara imponerad utan också litet rädd när jag pratar med ”Siri”. Kanske det är Google och Apple vi ska vara rädda för? Det tekniska undret kan utveckla sig själv. Det är det Bostrom menar när han talar om ”Superintelligens”. Den har lämnat människan långt bakom sig.