Reflektioner över artificiell intelligens. Del 13: Den tekniska singulariteten – upptäckt och kritik

Har du hört talas om den tekniska singulariteten? Det hade inte jag förrän ganska nyligen. Frågan är OM eller snarare NÄR den artificiella intelligensen uppnår och passerar den mänskliga.
Låt mig gå direkt på kritiken, som har två olika aspekter (minst):

  1. Är det överhuvudtaget tekniskt möjligt att konstruera en artificiell intelligens som kan mäta sig med den mänskliga?

2) Varför ska den mänskliga intelligensen tas som förebild för den artificiella?

  1. Möjligt?

Mina tekniska vänner reagerade genast. Nej, en teknisk singularitet finns bara i några tokars huvuden, nämligen framförallt hos dem som har anknytning till ”Future of life institute”, grundad av bland annat Max Tegmark (som förövrigt har fått smeknamnet ”Mad Max”).

Varför skulle det vara så omöjligt att uppnå teknisk singularitet? Max Tegmark själv säger att den enda fysiska begränsningen ligger i ljusets hastighet.

Kan det vara datorernas kapacitet som gör singulariteten omöjlig? Ja, nuvarande hårdvara verkar inte räcka till. Det går för långsamt (även om det är långt från ljusets hastighet), det krävs för mycket minne (även om man har superdatorer) och det kräver för mycket energi. (Det senaste förvånade mig som trodde att informationsteknik var energisnål, vilket alltså är fel.)

Nya datorer då? Kvantdatorer till exempel? Nej, mina tekniska vänner är inte bara envisa, de är också realistiska (möjligen beror det på att de själva jobbar med problemen): En allmän generell intelligens liknande människans kräver så mycket ”hårdvara” – mest beroende på att det vi människor är riktigt bra på är ”inbyggt” i oss. Vi behöver aldrig tänka på hur vi pratar, eller hur vi gör när vi blir kära, till exempel,. För att simulera sådant som är ”hardwired” behövs en mängd beräkningskapacitet.

Nu närmar sig den andra punkten i omöjligheten: Vi vet helt enkelt inte hur människor bär sig åt för att göra allt det där som är så självklart. Hur samordnas öga och hand till exempel? Själv blev jag helt förbluffad av hur enkelt det var att hålla bussen kvar på vägen den första gången jag satte mig vid en ratt (och jag ska inte tala om när och var och varför just här, det får vänta till mina memoarer). Det mesta av det som vi är riktigt bra på: att se ”gestalter” i fläckar, att förstå och få fram ord, att känna medlidande, att bli arga och att älska, allt detta går !automatiskt”, det vill säga utan något som helst medveten ansträngning. Hur gör vi? Det är ”inbyggt” i oss och ska en artificiell apparat kunna göra något liknande krävs en massa studier av dels situationerna omkring de här prestationerna, dels prestationerna själva. Och tro nu inte att sådana studier saknas, men de är långt från människans gåta.

Så låt mig gå till den andra frågan.

2) Varför ska just människan vara en förebild för Artificiell intelligens?

Dagens artificiella intelligens har den mänskliga hjärnan som förebild. Man bygger artificiella neurala nätverk och tycker man har kommit väldigt långt när man börjat bygga nätverken i tre dimensioner och inte bara i två. Detta kallas för ”deep learning” och den tanken har lett till ett stort språng i utvecklingen.

Men, många tänkare har påpekat att det var länge sedan som människor övergav idén att bygga flygplan som flög som fåglar. Det gick bara inte att få dem att flaxa med vingarna. När man slutade tänka flaxande gick det att få fram flygande föremål, med viss övertalning, förstås, men ändå. Så varför tänka mänsklig hjärna när man bygger artificiell intelligens?

Den kritiken låter ju helt rimlig, men … När det gäller flygplan kände man till en hel del om förutsättningarna för flygande: aerodynamik till exempel. Det var ”bara” att utveckla den kunskapen och så gick det att komma runt problemet att vingarna inte kunde röra sig. När det gäller intelligens är det så att vi vare sig känner till förutsättningarna eller ens är överens om vad som är ”intelligent”. Är inte myrorna intelligenta kanske, se vad de kan åstadkomma! Och delfinerna lär vara smartare än vi, på vilket sätt då?

Smarta konstruktörer och algoritmer har fått datorer att slå världsmästare i schack och i ”Go”, men då är dessa områden bland de mest utforskade av mänsklig ”smart” verksamhet. Låt oss gå till ”Allmän Generell Intelligens” – A G I – i stället. Vad är det? Hur gör vi?

Slutsatser

Det finns vare sig tekniska eller kunskapsmässiga förutsättningar för att bygga en artificiell generell intelligens.  Kan vi då vara trygga? Kan vi sluta upp med alla förberedelser för att hindra en superintelligens att ta över jorden?

Nja, jag är osäker. När jag söker efter information på Google, till exempel. Får jag verkligen allt? Hur utvald och anpassad är den informationen? Jag blir inte bara imponerad utan också litet rädd när jag pratar med ”Siri”. Kanske det är Google och Apple vi ska vara rädda för? Det tekniska undret kan utveckla sig själv. Det är det Bostrom menar när han talar om ”Superintelligens”. Den har lämnat människan långt bakom sig.

Kommentera

E-postadressen publiceras inte. Obligatoriska fält är märkta *

Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.