Etikettarkiv: artificiell intelligens

Reflektioner över artificiell intelligens. Del 13: Den tekniska singulariteten – upptäckt och kritik

Har du hört talas om den tekniska singulariteten? Det hade inte jag förrän ganska nyligen. Frågan är OM eller snarare NÄR den artificiella intelligensen uppnår och passerar den mänskliga.
Låt mig gå direkt på kritiken, som har två olika aspekter (minst):

  1. Är det överhuvudtaget tekniskt möjligt att konstruera en artificiell intelligens som kan mäta sig med den mänskliga?

2) Varför ska den mänskliga intelligensen tas som förebild för den artificiella?

  1. Möjligt?

Mina tekniska vänner reagerade genast. Nej, en teknisk singularitet finns bara i några tokars huvuden, nämligen framförallt hos dem som har anknytning till ”Future of life institute”, grundad av bland annat Max Tegmark (som förövrigt har fått smeknamnet ”Mad Max”).

Varför skulle det vara så omöjligt att uppnå teknisk singularitet? Max Tegmark själv säger att den enda fysiska begränsningen ligger i ljusets hastighet.

Kan det vara datorernas kapacitet som gör singulariteten omöjlig? Ja, nuvarande hårdvara verkar inte räcka till. Det går för långsamt (även om det är långt från ljusets hastighet), det krävs för mycket minne (även om man har superdatorer) och det kräver för mycket energi. (Det senaste förvånade mig som trodde att informationsteknik var energisnål, vilket alltså är fel.)

Nya datorer då? Kvantdatorer till exempel? Nej, mina tekniska vänner är inte bara envisa, de är också realistiska (möjligen beror det på att de själva jobbar med problemen): En allmän generell intelligens liknande människans kräver så mycket ”hårdvara” – mest beroende på att det vi människor är riktigt bra på är ”inbyggt” i oss. Vi behöver aldrig tänka på hur vi pratar, eller hur vi gör när vi blir kära, till exempel,. För att simulera sådant som är ”hardwired” behövs en mängd beräkningskapacitet.

Nu närmar sig den andra punkten i omöjligheten: Vi vet helt enkelt inte hur människor bär sig åt för att göra allt det där som är så självklart. Hur samordnas öga och hand till exempel? Själv blev jag helt förbluffad av hur enkelt det var att hålla bussen kvar på vägen den första gången jag satte mig vid en ratt (och jag ska inte tala om när och var och varför just här, det får vänta till mina memoarer). Det mesta av det som vi är riktigt bra på: att se ”gestalter” i fläckar, att förstå och få fram ord, att känna medlidande, att bli arga och att älska, allt detta går !automatiskt”, det vill säga utan något som helst medveten ansträngning. Hur gör vi? Det är ”inbyggt” i oss och ska en artificiell apparat kunna göra något liknande krävs en massa studier av dels situationerna omkring de här prestationerna, dels prestationerna själva. Och tro nu inte att sådana studier saknas, men de är långt från människans gåta.

Så låt mig gå till den andra frågan.

2) Varför ska just människan vara en förebild för Artificiell intelligens?

Dagens artificiella intelligens har den mänskliga hjärnan som förebild. Man bygger artificiella neurala nätverk och tycker man har kommit väldigt långt när man börjat bygga nätverken i tre dimensioner och inte bara i två. Detta kallas för ”deep learning” och den tanken har lett till ett stort språng i utvecklingen.

Men, många tänkare har påpekat att det var länge sedan som människor övergav idén att bygga flygplan som flög som fåglar. Det gick bara inte att få dem att flaxa med vingarna. När man slutade tänka flaxande gick det att få fram flygande föremål, med viss övertalning, förstås, men ändå. Så varför tänka mänsklig hjärna när man bygger artificiell intelligens?

Den kritiken låter ju helt rimlig, men … När det gäller flygplan kände man till en hel del om förutsättningarna för flygande: aerodynamik till exempel. Det var ”bara” att utveckla den kunskapen och så gick det att komma runt problemet att vingarna inte kunde röra sig. När det gäller intelligens är det så att vi vare sig känner till förutsättningarna eller ens är överens om vad som är ”intelligent”. Är inte myrorna intelligenta kanske, se vad de kan åstadkomma! Och delfinerna lär vara smartare än vi, på vilket sätt då?

Smarta konstruktörer och algoritmer har fått datorer att slå världsmästare i schack och i ”Go”, men då är dessa områden bland de mest utforskade av mänsklig ”smart” verksamhet. Låt oss gå till ”Allmän Generell Intelligens” – A G I – i stället. Vad är det? Hur gör vi?

Slutsatser

Det finns vare sig tekniska eller kunskapsmässiga förutsättningar för att bygga en artificiell generell intelligens.  Kan vi då vara trygga? Kan vi sluta upp med alla förberedelser för att hindra en superintelligens att ta över jorden?

Nja, jag är osäker. När jag söker efter information på Google, till exempel. Får jag verkligen allt? Hur utvald och anpassad är den informationen? Jag blir inte bara imponerad utan också litet rädd när jag pratar med ”Siri”. Kanske det är Google och Apple vi ska vara rädda för? Det tekniska undret kan utveckla sig själv. Det är det Bostrom menar när han talar om ”Superintelligens”. Den har lämnat människan långt bakom sig.

Reflektioner över artificiell intelligens del 12. Att kontrollera en ”superintelligens”.

Låt oss nu tänka oss att våra intelligenta tekniker lyckats med att konstruera en (eller flera)  apparater som kan fungera på ett intelligent sätt. Dessa har i sin tur utvecklat sig själva till en superintelligens, dvs en intelligens som är vida ”högre” än vår – så mycket högre att det inte går att mäta på intelligenstest, vi skulle kunna säga att vår intelligens är som kackerlackors i förhållande till superintelligensen.

Hur ska vi kunna leva ihop med en sådan intelligens? Vilka risker kan vi råka ut för? Hur kan vi förebygga dem?

Elon Musk (Teslas utvecklare) är en AI skeptiker och säger följande:

”Vi bara har ”fem till tio procents chans” att lyckas kontrollera en generell artificiell intelligens.”

(Ur:  https://www.idg.se/2.1085/1.693118/elon-musk-ai )

Att kontrollera en superintelligens är ett ämne som Nick Bostrom tar upp i sin  bok ”Superintelligence – paths, dangers, strategies”.

Han menar att det i princip finns två sätt att kontrollera det intelligenta systemet:

  1. Att  begränsa systemets förmåga
  2. Att påverka systemets mål

Begränsa förmågan

Den första metoden innebär att försöka låsa in AI (boxing method)

Här argumenterar Bostrom mycket övertygande om att det inte kommer att gå. Ett superintelligent artificiellt system kommer alltid att överlista oss på något sätt och ta sig ur det ”fängelse” vi skapat.

Den andra är att försöka få systemet att intressera sig för något som inte är i vägen för oss, t.ex. umgås med andra eller till och med engagera sig i projektet som den är delaktig i. Även om jag inte helt förstår vad Bostrom är ute efter, kan jag förstå att det kan vara svårt för en människa med vår begränsade intelligens att förstå vad som kan engagera en superintelligens, och vilka konsekvenser en sådan distraktion kan få.

Den tredje förmågebegränsningen ligger helt enkelt i att begränsa systemets tillgång till information. Man kan göra det genom att låta den köras på system med långsam hårdvara eller mycket begränsat minne. Det här är en möjlig kontrollmetod, nackdelen är att den kommer att drabba oss själva också. Vi kommer inte att kunna utnyttja det super intelligenta systemet så som vi tänkt oss.

Den fjärde metoden är att lägga ut snubbeltrådar i form av diagnostiska test på systemet. Om testet visar att systemet är ”på fel väg”, stoppar det systemet. Kan det funka? Ja, i vilket fall borde det vara obligatoriskt att använda sådana diagnostiska test i utvecklingsfasen.

Välja motivation

Kan inte de som konstruerar systemet ge det en lämplig motivaton redan under konstruktionsfasen? Hur skulle man kunna göra det?

Ett sätt är att direkt specificera vilket mål som systemet ska arbeta mot. Vi känner möjligen igen den här tanken från Asimovs robotlagar: En robot får aldrig skada en människa, etc.

Problemet med en direkt specifikation är att vi inte kan specificera vad vi egentligen menar. Om man skadar en människa, men räddar en mängd andra, hur stämmer det med lagen?  Om en masochist eller sadist hindras från att skada sig själv eller andra, blir inte den skadad då?

De här invändningarna bygger på att vår kommunikation inte är byggd för specifikationer utan för intuitiv förståelse. Så fort som vi försöker specificera något, råkar vi ut för definitionsproblem.

OK, låt oss då gå till nästa förslag: Att begränsa agentens handling till ett visst område, t.ex. till att svara på frågor (i stil med Googles söktjänst). Vad kan det vara för farligt med det? Faran ligger i att systemet kan bli alltför ambitiöst: det kan bokstavligt talat ”gå över lik” för att få tag i den information du behöver. Tänk på tortyr för att få information. Ja, även om vi säger åt systemet att tortyr inte är tillåtet kommer nästa problem: vad definierar vi med tortyr?

För varje möjlig inskränkning vi gör kan Bostrom hitta på ett motexemel, så låt mig snabbt gå över till den tredje metoden.

Den tredje metoden att välja motivation för ett superintelligent system är att låta en människa gå in och godkänna resultatet av systemets handlande. Detta skulle i och för sig innebära att man inte kan utnyttja systemet fullt ut (en människa är ju definitionsmässigt inte lika intelligent som ett superintelligent system),men man kan åtminstone stoppa systemet så snart som det ser ut att föra åt alldeles fel håll.

Slutsatsen är alltså: Låt en människa kontrollera systemets utfall så att det inte kommer i konflikt med vad människor eller skadar människor. Litet svagt, kanske, men ändå det bästa för tillfället.

Jag inbjuder dig till att själv läsa Nick Bostroms bok och komma med ytterligare metoder eller rentutav invändningar mot filosofen. Jag känner att jag inte har den filosofiska träning som krävs för att hitta på möjliga absurda konsekvenser av ett superintelligent systems handlande.

Nick Bostrom har fått ett stort forskningsanslag från Elon Musks institut: futureoflife. (http://futureoflife.org)

Elon Musk tror alltså på Nick Bostrom och hans möjligheter att styra AI utvecklingen i en positiv riktning.

Referens: Nick Bostrom. Superintelligence. Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.

Reflektioner över artificiell intelligens, 11. Vad ska man tänka på vid utvecklingen av AI?

I det tidigare avsnittet visade jag hur många olika tillämpningar som redan finns som på något sätt baserar sig på artificiell intelligens. Nästa steg är att reflektera över om det inte behövs någon reglering av utvecklingen? Kan man låta olika företag utveckla AI utan kontroll?

Jag har botaniserat litet på nätet och ger här några egna kommentarer samt citat. 

I Sverige har regeringen lagt upp följande förslag för fortsatt användning av AI:

(ur: https://www.regeringen.se/informationsmaterial/2018/05/nationell-inriktning-for-artificiell-intelligens/ )

Regeringens bedömning är att:
– Sverige behöver utveckla regler, standarder, normer och etiska
principer i syfte att vägleda
etisk och hållbar AI och användning av AI.
– Sverige behöver verka för svenska och internationella standarder och regelverk som främjar användning av AI och
förebygger risker.
– Sverige behöver kontinuerligt se över behovet av digital infrastruktur för att tillvarata möjligheterna som AI kan ge.
  Sverige behöver fortsätta arbetet med att tillgängliggöra data som kan utgöra en samlad infrastruktur för att använda AI på områden där det tillför nytta.
– Sverige behöver fortsätta att ta en aktiv roll i EU:s arbete med att främja digitalisering och med att möjliggöra nyttan som användningen av AI kan medföra.

I Sverige har några alltså redan tänkt på att AI kan innebära risker. I USA finns en hel grupp med forskare och tekniker som arbetar med att reflektera över hur man bäst kan förbereda sig för en bra framtid för mänskligheten. Elon Musk (uppfinnaren av Tesla) har samlat en hel del goda krafter till ett institut han kallar för futureoflife. (http://futureoflife.org)

Ett av områdena där handlar om framtida artificiell intelligens, där målet är att skapa en välvillig intelligens. Så här skriver Elon Musk:

Det som vi verkligen behöver är att försäkra oss om att livet fortsätter in i framtiden. .. Det är bättre att förhindra en negativ utveckling än att försöka förändra den när den väl inträffat.” (min översättning)

När det gäller A:s framtida utveckling är det ”säkerhetsforskning” som ligger på institutets agenda.

Detta institut har redan startat en mängd relativt storskaliga projekt  med detta generella mål, en översikt finns här: https://futureoflife.org/ai-safety-research/

Det största projektet leds av  Nick Bostrom: ”Strategic Research Center for Artificial Intelligence” i Oxford, England, och stöds med 1.500.000 dollar.

Låt oss se litet på hur realistiskt projektet att utveckla en superintelligent AI kan vara. Nyligen talade Max Tegmark på en konferens i Stockholm och visade då bland annat en bild, som illustrerar vad AI kan åstadkomma nu och inom den närmaste framtiden. Bilden visar ett tänkt landskap, där olika intellektuella färdigheter finns utlagda som berg och dalar. De förmågor som redan karakteriserar artificiell intelligens är utlagda som vatten, de förmågor som AI ännu inte klarar av visas som berg.

Vi ser att utantillinlärning, schack och Go ligger gott och väl under AI:s vattenyta, medan taligenkänning, översättning, bildtolkning och bilkörning ligger alldeles i strandkanten. Investering och social interaktion ligger en bit högre upp, medan konst, film, författande, programmering, vetenskap och AI design ligger uppe på bergtopparna.

AI landskap, från ett föredrag av Max Tegmark, 2018.

Det påpekas ofta i sådana här sammanhang att det är svårt att skapa program som kan utföra uppgifter som är enkla för människan, t.ex. tolka bilder eller förstå naturligt språk. Detta kallas för ”Moravecs paradox”. Varför är det så? Jo, vår hjärna ägnar en stor del av sin beräkningskapacitet (faktiskt så mycket som mer än en fjärdedel) åt ”lågnivå” beräkningar av det slaget. Den är alltså specialkonstruerad för att förstå tal och känna igen bilder, framförallt människoansikten. Den som vill åstadkomma en liknande prestation hos en maskin måste ”gå runt” problemet på något sätt.

Det här är reflektioner som flera AI tänkare framfört, och en del är redan ”överkörda” av utvecklingen. Vi talar nu på allvar om självkörande bilar, och i tidigare reflektioner har jag visat att både taligenkänning och översättning är realistiska mål för utvecklingen inom artificiell intelligens. De där böckerna och tavlorna som producerats av något AI program är mer lustiga än allvarliga, men snart kanske jag får hålla mig för skratt.

Max Tegmark själv påpekar i sin bok ”Life 3.0” att vi måste tänka efter före. Frågor som vi bör ställa oss innan vi själva utvecklar (eller låter andra utveckla) AI system är till exempel följande:

Vilken slags framtid vill vi ha? Ska vi utveckla dödliga autonoma vapen? Vad gör vi med automatisering av arbeten? Vad ska vi råda dagens barn att satsa på för utbildning? Vad vill vi helst: Att det kommer nya arbeten som ersätter gamla eller att samhället blir fritt från arbete, så att människan kan ägna sig åt vad hon vill och maskiner ersätter allt nödvändigt arbete? Kommer vi att kunna kontrollera intelligensen eller kommer den att kontrollera oss? Kommer intelligenta maskiner att ersätta oss eller att leva bredvid oss? Vad innebär det att vara människa i ett liv med artificiell intelligens? Vad skulle vi vilja att det innebar och hur kan vi göra så att det blir så som vi vill?

Hur vi än svarar, kan vi inte låta artificiell intelligens utvecklas ”av sig själv”. Vi måste ta ställning i några av de ovanstående frågorna.

Max Tegmarks mål är en ”vänlig” AI . Han vill förhindra att AI av sig själv eller av andra utvecklas på ett negativt sätt. En skadlig artificiell intelligens kan vara intressant för stormakter som vill få ett militärt övertag, och det finns redan självstyrande robotar men också tankar på att utveckla robotarméer.

Men vi ska inte tro att artificiell intelligens behöver vara medvetet (eller designmässigt) fientlig för att på sikt kunna skada mänskligheten. Det behövs bara att ett AI system får för sig att sträva efter ett mål som kan komma i konflikt med människor. Tegmark tar upp ett exempel: Tänk dig att du ber ett AI system att skapa en fabrik för att göra gem. Det här systemet får för sig att det högsta målet är att producera så många gem som möjligt. För att kunna göra det behöver det material, och då börjar det använda allt som finns omkring i världen som material, till slut kan det till och med börja använda människokroppar. Ja, detta är ju bara ett tänkt scenario, men framtidsforskare utgår ofta från just sådana.

Några slutsatser om framtiden för AI som Max Tegmark drar är följande:

När vi tillåter att system i verkligheten använder AI är det särskilt viktigt att vi gör systemen robusta, dvs vi måste kunna verifiera dem, validera dem, göra den säkra och kunna kontrollera dem. Den här kontrollen är speciellt viktig för vapensystem som kontrolleras av AI

AI kan göra våra juridiska system mer rättvisa och effektiva om vi bara kan göra robot-domarna opartiska och ”genomskinliga”.

Våra lagar måste uppdateras, till exempel när det gäller integritetsfrågor, ansvarighetsfrågor och regleringar

Om AI ersätter oss människor på arbetsmarknaden måste vi kunna få del av den välståndsökning som AI kan skapa.

Om vi blir arbetslösa, måste vi kunna få ut en ”mening” ur livet som inte enbart har med jobbet att göra.

(Min egen kommentar är att jag hoppas människor vill få ut något annat av livet än bara njutning, annars kan vi ju leva på droger medan AI jobbar).

Hur ska vi då kunna få en önskvärd utveckling av artificiell intelligens? Nästa gång ska jag berätta dels om Elon Musks farhågor om Artificiell intelligens, dels om Nick Bostroms bok ”Superintelligens”.

Reflektioner över Artificiell intelligens, del 10: Tillämpningar av AI

I det här avsnittet närmar jag mig de (nuvarande) tillämpningarna av artificiell intelligens. Vad är då tillämpning av ”artificiell intelligens”? Jag ser två olika ingångar:

  1. ett system som klarar uppgifter som vi tycker är ”intelligenta” med mänskliga mått
  2. ett system som bygger på AI-teknik, t.ex. maskininlärning, särskilt ”djup inlärning”.

Detta är långt ifrån tillfredsställande, men jag går runt svårigheterna genom att helt enkelt titta på tillämpningar som kallat sig för ”artificiell intelligens”. Vi måste då komma ihåg att själva benämningen kan ha en positiv klang och att en del företag (eller till och med forskare) som jobbar med Ai kan använda den i marknadsförande syfte. Därför är det inte alltid lätt att avslöja, var gränsen går mellan artificiell intelligens och ”vanlig” högnivå-programmering.

Jag går här genom några tillämpningar i olika länder.

USA

USA har för oss i Sverige varit det land där AI utvecklats och fortsättningsvis utvecklas.

Låt mig börja med något som jag använder dagligen: Googles sökfunktion.

Det systemet sägs bygga på AI teknik, men hur tekniken ser ut är naturligtvis en hemlighet. Någonstans har jag sett att söksystemet använder maskininlärning för att förfina sina sökningar. Där finns ett skäl för att kalla detta för AI.  Själva sökmetoden vet jag däremot ingenting om, men jag kan inte låta bli att förvånas över hur fort det går. Dessutom kan jag naturligtvis inte kontrollera hur relevanta resultat jag får. Jag vet att min egen sökhistorik påverkar vad jag får fram, så jag försöker sprida mina frågor över olika möjliga områden.

En annan funktion som jag ofta använder är olika översättninsprogram. Sådana system har en gedigen forskningsbakgrund. Länge har s.k. ”naturligt språk” hört till universitetens AI-forskning. De översättningsprogram som vi kan hitta på nätet har säkert tagit vara på den forskningen, och dessutom lagt till en hel del eget. Google samlar till exempel en stor databas av både ord och satser genom att be sina användare lägga till egna översättningsförslag. Sökning är de, som jag nämnde tidigare, bra på.

En annan tillämpning som är relativt vardaglig är ”Siri” – ett system som kan förstå talat språk (begränsat än så länge) och svara muntligt eller genom att göra saker (ringa upp, ordna något i det uppkopplade hemmet). Vad Siri kan svara och göra är begränsat, men gränserna flyttas ständigt.

En något udda, men kanske på sikt seriös tillämpning är projektet ”How to generate (almost) everything”, https://howtogeneratealmostanything.com/, som startats av några forskare och studenter på MIT. Ett exempel är ett AI system som tränats på en mängd med recept på pizza för att hitta på ett eget recept. Ett av resultaten var baserad på följande ingredienser: räkor, sylt och italiensk korv. Jag tycker det verkar som om det finns arbete kvar att göra på det pizza-receptet.

Jag har också sett projekt som genererar bilder från text:

https://feber.se/pryl/art/386085/artificiell_intelligens_gr_sku/

eller romaner

(https://feber.se/vetenskap/art/346405/artificiell_intelligens_skrev_/),

eller kapitel i stil med Harry Potter:  https://www.theverge.com/2017/12/12/16768582/harry-potter-ai-fanfiction

eller ”musik”:

https://illvet.se/teknologi/datorer/artificiell-intelligens-gor-en-udda-julsang

men låt mig gå vidare till mer vardagsnära och realistiska tillämpningar från andra länder.

Israel
Jag får tacka Mattias Arvola på Linköpings Universitet för länken: http://www.startuphub.ai/landscape

Denna länk ger en översikt över företag i Israel som arbetar med system som har något inslag av AI. I länken kategoriseras tillämpningarna på följande sätt:

  • Teknologier
    • tal och text
    • datorseende
    • hårdvara
    • system som möjliggör AI (många)
    • Virtuell verklighet
    • biometri och ”bots”
    • diverse
  • nya media
  • självgående apparater
    • självgående bilar
    • säkerhetssystem
    • övervakning
  • försäljning
  • hälso- och sjukvård
    • medicinskt visuellt
    • diagnostik
    • övervakning
    • neurologiskt
    • sjukhusorganisation
    • seniorer
    • bärbara apparater
    • diverse
  • industri
    • underhåll
    • robotik
    • konstruktion
    • transporter och logistik
    • säkerhet
  • Ekonomi
    • banksystem
    • redovisningssystem
    • prediktion (t.ex. aktier)
    • försäkringar
    • bedrägerier
    • lån
    • analys
    • fastigheter
  • Jordbruk
    • planering
    • uppföljning
  • Marknadsföring
    • avancerad målanalys

    • En ytterligare uppdelning görs i sektorer: drönare, utbildning, övervakning, städning, resor, juridik, hem och diverse.

Om du slår upp länken, och går med markören över loggorna ser du dels vilken AI-teknik som används, dels hur många som arbetar inom företaget/projektet.

Det finns alltså redan nu (åtminstone i Israel) en mängd företag och projekt som exploaterar termen AI. Jag har ingen möjlighet att utvärdera någon av dessa, och inbjuder mina läsare som vet mer att komma med information om dem.

Kina

Ett annat land som satsar på AI är naturligtvis Kina. Tidskriften Ny teknik har framförallt fastnat för Kinas tillgång till persondata. Här en länk: https://www.nyteknik.se/digitalisering/kinas-vapen-for-att-bli-ledande-inom-artificiell-intelligens-6903516

Artikeln säger att Kina räknar med framförallt följande tillämpningar: från självkörande bilar till betalningssystem med ansiktsigenkänning, polisarbete och säkerhetspolitik. En följd av Kinas styre är att AI blivit ledande när det gäller censur.

Japan

Japan har koncentrerat sig på människoliknande robotar. Delvis kan det bero på att Japan har allt färre invånare, men människorna kräver fortfarande service av olika slag: vid försäljning, undervisning, kontroller och förstås vård. En del av de japanska robotarna har jag redan berättat om.

För att ersätta människor behövs inte alltid människoliknande robotar. Det går bra med program som kan läsa och bearbeta text och siffror. Ett aktuellt exempel är ett japanskt försäkringsbolag som 2017 ersatte 34 kontorsarbetare med ett IBM system som kallas för ”Watson Explorer” och som kan analysera data som behövs som underlag vid försäkringsberäkninar av olika slag. I Sverige har vi nyligen hört talas om datasystem som kan beräkna sociala ersättningar snabbare och mer riktigt än människor.

Här ska jag ta upp en annan AI-tillämpning, nämligen tankeläsning (https://www.cnbc.com/2018/01/08/japanese-scientists-use-artificial-intelligence-to-decode-thoughts.html)

De här försöken att läsa människors ”tankar” ligger ännu på forskningsstadiet och är långt ifrån möjliga att marknadsföra, men man kan aldrig veta hur fort utvecklingen går.

Indien

Nästa stora utvecklingsland som intresserar sig för artificiell intelligens är Indien. Där sägs att följande områden kommer att bli aktuella:

samhälleliga: jordbruk, vård och utbildning, företag: kontors och affärsautomatisering, talande ”robotar” (typ Siri), naturligt språk samt mönsterigenkänning.

Ryssland

Här har jag hittat en intressant artikel i IDG: https://www.idg.se/2.1085/1.688150/putin-ai

Några citat ur den kommer här:

Det land som först behärskar ai-tekniken blir också det land som kommer ha makten i världen, enligt Rysslands president.

Samtidigt varnar återigen superentreprenören Elon Musk för att en sådan tävling, stater i mellan, är den mest troliga anledningen till ett tredje världskrig.

Utan att vilja skrämmas måste jag ändå kopiera ett uttalande från president Putin:

AI kommer också förändra tekniken som används i krigsföring. Robotar som kan programmeras att skjuta på objekt och människor i ett visst geografiskt område, cybervapen eller autonoma drönare som kan samordna sina attacker. Både USA och Kina utforskar den här tekniken. Framtidens krig, tror Putin, kommer att vara en kamp mellan drönare.

Sverige

På sidan http://investeringstipset.se/har-ar-svenska-bolagen-som-satsar-pa-ai/

kan jag hitta några svenska bolag som använder AI på olika sätt (citat ur artikeln):

Man kan bryta ner det till tre delar: AI kan användas för att försvara den befintliga verksamheten genom genom att effektivisera eller få ner kostnader. Sedan kan det också användas till att utöka den nuvarande affären genom att ge kunderna större mervärde, och sist men inte minst kan det användas till att öppna helt nya marknader och göra affärer på helt nya sätt, det som kallas digital disruption.

Exempel är följande:

SEB bekräftade i höstas att de skulle integrera AI-medarbetaren Amelia i bankens kundtjänst, och Tieto meddelade i oktober att de hade valt in sin egenutvecklade AI Alicia T i ledningsgruppen för enheten för datadrivet beslutsfattande.

Framtiden?

För framtiden frågar sig några journalister följande:

”Inom vilket område kan det första Nobelpriset att ges till en ai?- Mest troligt inom biomedicin. Det handlar om så komplexa saker, och vi översköljs av data. Vi skulle behöva ha mycket intelligenta maskiner för att planera experiment, samla studier, göra kritiska utvärderingar – peka ut vad vi ska fokusera på vetenskapligt, säger Hiroaki Kitano.”

Detta citat är hämtat ur: https://www.nyteknik.se/innovation/da-far-ai-ett-forsta-nobelpris-6880261

Sist men inte minst ser vi möjliga tillämpningar av AI inom militären – varför inte ha robotarméer som bekämpar varandra snarare än människor? Dessutom har vi redan nu självstyrande raketer och drönare som kan bli än effektivare genom att ”läras upp” av egna och andras misstag.

Jag kan bara kommentera att det enda som sätter gränserna för tillämpningen av artificiell intelligens är vår fantasi (och de tekniska möjligheterna, som utvecklas hela tiden) samt rent fysiska fakta, som till exempel ljusets hastighet.

De militära tillämpningarna gör att många forskare och utvecklare börjar föreslå att AI inte bör släppas fri på egen hand utan bör kontrolleras och regleras. Mer om behovet av att tänka på hur en artificiell intelligens bör kontrolleras tar jag upp i kommande reflektioner, när jag har läst Max Tegmarks och Nick Bostroms intressanta böcker, fullspäckade med information och reflektioner.

Reflektioner över Artificiell intelligens. Del 6: Robotar som verktyg

Vad ska vi ha robotar till? Hur ska de tjäna oss? Många tänker sig robotar som artificiella människor, men vad är det som säger att robotar ska ha mål eller bete sig som människor? I många sammanhang har människor större nytta av en eller flera robotar om de fungerar som verktyg (tool AI, enligt Nick Bostrom).
Låt oss tänka oss en robot ungefär som en ordbehandlare. Den gör exakt vad vi säger åt den, bara litet mer (korrigerar stavningen till exempel). Tänk dig en hushållsrobot som handlar mat och lagar den, som plockar undan och dammsuger, så bekvämt. Du bara befaller vad roboten ska göra och så gör den det.
Vad är det för skillnad mellan en människoliknande robot i så fall och ett ”vanligt” datorprogram?

För det första kan den göra så mycket mer än datorprogram gör just nu. Den är inte specialkonstruerad för en enda uppgift, utan har en bredare kompetens. Men måste den likna en människa för det?
Det är förstås bekvämt för en användare med en robot som kan göra det som en människa kan göra. Man behöver inte tveka om robotens funktioner; den kan helt enkelt göra samma saker som en människa. En användare behöver inte en flersidig manual som beskriver olika aktiviteter; en användare tänker bara på sig själv och vad hen kan göra. Sedan kan vi förstås diskutera om roboten ska ha liknande kroppsliga begränsningar: det kanske inte vore så dumt om den kunde bära tyngre föremål, orka mera, se bättre och höra bättre. Då kunde den verkligen hjälpa en människa. Huvudsaken är att den gör det som användaren vill. En robot som verktyg behöver inte ha någon fri vilja, vi säger bara vad den ska göra och resultatet blir därefter.

Ja, en sak till, det ska förstås vara lätt att tala om för roboten vad den ska göra. Vi vill inte ha något krångligt ”gränssnitt”, inte en manual som talar om vilka knappar vi ska trycka på eller vilka ord vi ska använda. Vi vill kunna umgås med roboten som med en människa. Forskarna talar om detta som ”naturligt språk”, det kan vara skrivet eller talat. Flera exempel på ett gränssnitt med naturligt språk finns redan nu. Det är ”Siri”, men hennes handlingar är relativt begränsade. Också sökningen i internet, t.ex. med hjälp av Google sker med naturligt språk. Människoliknande i kommunikationen, men inte i formen. De är båda exempel på verktyg.
Drömexempel på tjänare som fungerar som verktyg är anden i flaskan, den som kan ge människan allt hon önskar. Ett annat exempel är en sexrobot som enbart underkastar sig och inte har några egna önskemål.
En robot som verktyg skulle vi kunna jämföra med en hund: Den kan hjälpa oss med många olika aktiviteter, inom hundens begränsningar och med hundens särskilda förmågor. Den förstår inom vissa gränser vad vi vill om vi säger till den. Men det tar lång tid att träna en robot. Åtminstone med dagens maskininlärningstekniker.
Även om vi är långt från människoliknande verktygsrobotar just nu kan vi fråga oss om det kan vara något fel på att utveckla robotar som verktyg. Om de inte gör något annat än vad människan bestämmer kan de väl inte utgöra någon risk för människan?

Då kan vi ta ett motargument med hjälp av en slags ”robot” som finns redan nu: de moderna målsökande raketerna. De tjänar sin herre genom att skada herrens fiende. De är visserligen inte människoliknande, men de kan belysa problemen med att använda robotar eller överhuvudtaget AI som verktyg.
Verktygsrobotar lyder under människan och är därmed underkastade människans välkända svagheter: kort planeringshorisont, kort minne, oförmåga att förstå komplicerade samband samt det värsta: människans egoism och människans ondska. Kan vi göra människan god kvarstår ändå de andra problemen. Vore det inte bra att ha en robot som kunde hindra människan från att göra dumheter? En som åtminstone kunde tala om när människan är på ”fel” väg?

Vi kommer då in på helt autonoma människoliknande robotar,  jag ska diskutera dem litet nästa vecka.

Men först: ett exempel på vad det kan innebära att ha en robot som ”verktyg” finns i kapitel 14 i boken ”När havet steg”. Här är det träningen som tas upp. Tänk dig en lat robot som den här:

Ur: När havet steg. Kapitel 14. Kan en robot agera självständigt?

I dag vaknar jag utsövd, nöjd med mig själv att jag klarat av att skaffa en flygbiljett åt mormor. Det är bara resten kvar.
Nu gäller det att träna Romeo så att han kan följa mormor till flygplatsen.

”Jag tänker träna Romeo”, meddelar jag vid frukostbordet.
”Vad då? Till vad?” undrar mormor. ”Jag ska hjälpa dig, jag vet hur man gör. Jag lärde honom att flytta mig omkring i lägenheten. ”
”Hur då?”
”Det var inte lätt”, suckar mormor. ”Först pekade jag på mig och på honom och försökte teckna att han skulle ta i mig och lyfta upp mig. Det fungerade inte alls.”
”Hade du inte fått några instruktioner på hur du skulle göra med honom?”
Jag blir upprörd över att man ger gamla människor assistenter utan någon som helst bruksanvisning.
”Nej”, säger mormor. ”Jag var tvungen att ta honom i handen, och lägga hans arm om min midja.”
Hon skrattar vid minnet.
”Då ramlade jag ur sängen, för han höll inte i mig.”
”Gjorde det inte ont?”
”Äsch, inte värre än annars. Egentligen var det bra att jag ramlade. Det verkade som om Romeo förstod vad jag behövde. Han böjde sig ner och lyfte upp mig i sängen igen.”
”Men det var inte det du ville!”
”Nej, men det var i alla fall en början. Han hade lyft mig. Jag tackade honom och gjorde samma sak en gång till. En gång till ramlade jag i golvet, men nu var jag förberedd. Han lyfte upp mig i sängen igen. Så där höll vi på ett tag, tills jag hade fått ordentligt ont i vänster lår också.”
Det där var väl inget bra. Att hon inte sagt något till mig! Men vi har inte haft någon kontakt med varandra sedan hon kom hem från sjukhuset. Under den tiden har det hänt mycket, både i den stora världen där havet fortsätter att stiga och hos mormor där robotarna kommit som hennes assistenter.
”Till sist vägrade jag att låta Romeo lägga mig i sängen. Jag spjärnade mot och sprattlade och pekade på stolen framför VIU:n.”
”Förstod han då?”
”Inte genast, men efter många gånger, jag har tappat räkningen, vände han bara och gick till stolen. Där släppte han ner mig ganska oförsiktigt, så jag höll på att ramla igen.”
Jag ser situationen framför mig och blir både upprörd och full i skratt. Hur kan man ge gamla sjuka människor en robot som riskerar att bryta benen av dem? Tur att mormor är så tålmodig. Och så tuff.

Så det är bara genom att visa om och om igen som Romeo kan lära sig? Det stämmer i och för sig med vad jag läst om neuronnät. Upprepning är inlärningens moder, för artificiell intelligens likaväl som för mänsklig.
Men nu går det inte att försöka lära Romeo genom upprepning. Det är alldeles för omständligt. Jag kan inte låta honom om och om igen bära mormor nerför trappan, sedan gå in i en taxi, fara till flygplatsen och gå till incheckningen. Det skulle ta alldeles för lång tid och bli alldeles för dyrt.
Nej, den enda lösningen är att mormor visar honom till flygplatsen, hon kan ju klara det mesta, utom själva resan. Och så får Romeo ta sig tillbaka själv. Om han nu klarar det, förstås. Jag måste kolla med mormor.

”Mormor”, säger jag medan hon sitter upptagen med någon av de gamla filmerna framför VIU:n.
”Ja?” Låter hon inte lite otålig? Jag måste ju fråga henne, det handlar om hennes hemresa.
”Om Romeo tar dig till flygplatsen, kan han då ta sig hem på egen hand?”
”Ingen aning”, säger mormor. ”Jag har då aldrig sett honom göra något på egen hand.”

Hur gör vi då? Det kanske räcker med att jag lär honom att gå tillbaka till taxin. Jag ber taxichauffören vänta medan Romeo checkar in mormor, och så får Romeo gå tillbaka. Eller, förresten, ännu bättre: Taxichauffören får gå med in och så tar han med Romeo tillbaka. Förträfflig idé.

Jag jagar ut på stan för att ta reda på en taxi med en chaufför  har en tolkningsapparat. Det är inte så lätt. Numera är de flesta bilar självkörande. Taxibilar med chaufförer finns bara till för turister som inte ens vet vad orterna heter här på Lanzarote. Fördelen är att chaufförerna måste ha tolknings-apparater.
Efter några försök hittar jag en taxi.
”Jag skulle behöva ha hjälp med en skjuts till flygplatsen.” Taxichauffören skakar på huvudet och säger något som i min TOLK låter som:
”Inte få utanför Haría.”
Jag tror att det innebär att han inte får köra någon utanför Haría. Energiransoneringen gäller tydligen taxibilar också
Nästa bil, då? Där finns en skylt utanpå med texten ”Distancia”, och jag tror att det betyder ”avstånd”. Jag hoppas att han kan köra utanför Haría. Det visar sig vara riktigt. Jag försöker förklara problemet för honom: Han ska skjutsa två personer till flygplatsen, följa dem in till incheckningen och sedan ta en person tillbaka till Haría.
Han bara skakar på huvudet. Förstår han inte? Jag är på väg att dra med honom in till mormor, när min TOLK äntligen låter mig förstå vad som är fel: Han får inte parkera bilen och gå från den förrän hans dagspass är slut. Är det likadant med alla taxi? Ja, säger den här chauffören i alla fall.  Han är nog en robot som vare sig behöver gå på toa eller äta.
Jag går till ytterligare en, han förstår inte ett skvatt. Eftersom jag inte ser någon mer taxibil med skylten ”Distancia”, så ger jag upp.

Romeo får helt enkelt lära sig att gå tillbaka till taxin på egen hand. Vi kan förstås inte träna på flygplatsen. I stället tar jag med Romeo till gatan och ställer honom vid porten. Där befaller jag honom att stå stilla. Det gjorde han ju när jag var hos TCM, så det borde han förstå.
Själv går jag till Plaza de la Constitución, där taxibilarna står, och så ber jag en köra mig till mormors hus. Där står Romeo snällt och väntar. Så här långt fungerar det alltså.
Jag visar in Romeo i taxin och ber chauffören köra tillbaka till torget där vi börjat. Han ser något undrande ut, men jag betalar innan jag går in och han kör. På torget går jag av. Jag säger åt Romeo att gå ut också.
”Sale!” befaller jag. Innan jag började det här Romeo-projektet slog jag upp vad ”gå av” heter på spanska och lärde mig det. Det ligger lätt i munnen, naturligt för en svensk tunga. Sedan gäller det att få honom att gå hem utan mig.
”A casa!” säger jag och viftar med händerna för att skjutsa i väg honom.
Romeo tittar på mig med sina oseende ögon och han drar faktiskt på munnen.
”Gå hem!” förtydligar jag det, fast jag mycket väl vet att han inte förstår svenska.
”A casa!” säger jag en gång till.
Romeo tar mig under armen och börjar gå, åt rätt håll.

Det är ju klart att det inte kan fungera vid första försöket. Kanske jag borde ha mormor med för att få snabbare kommunikation? Jag går hem tillsammans med Romeo och så börjar jag om hela proceduren igen, nu med mormor.
Han bär henne i rullstolen nerför trapporna, medan jag hämtar en taxi. Vi in i taxin, tillbaka till torget, där vi går av. Så långt funkar det i alla fall, men nu ska vi få Romeo att gå tillbaka ensam.
Mormor säger åt Romeo att gå hem, men han viker inte från hennes sida. Med prat och gester förklarar mormor att hon vill stanna på detta vackra torg, där det fortfarande växer något träd och ännu klättrar några skuggande klängväxter på en inhägnad. ”I solen”, lägger hon till och vänder upp ansiktet mot den ljusa fläck som kan vara sol. Jag beundrar hennes tålamod. Det är förstås så här hon gjort för att undervisa robotarna.
Romeo ställer sig vid rullstolen och håller fast i handtagen. Det är som förgjort. Då får jag syn på caféet i hörnet på torget. Där kan vi sitta utanför och dricka kaffe, mormor och jag, medan Romeo går hem. Mormor förklarar, Romeo lyssnar till synes uppmärksamt. Jag går in i caféet och beställer kaffe åt mig och mormor. Romeo ser ut som om han inte vet om han hör till mig eller mormor, men till slut bestämmer han sig och stannar hos mormor.

När jag kommer ut igen, säger mormor åt Romeo att gå hem. Hon till och med förklarar att han får komma tillbaka om en timme och hämta henne. Inget resultat. Romeo står som en soldat vid hennes rullstol och låtsas inte förstå någonting. Det är möjligt att han faktiskt inte fattar vad hon vill. Mormor och jag dricker kaffe, men Romeo får ingenting. Han vill nog inte ha någonting heller. Till slut ger jag upp. Vi går ut på torget igen och går hem tillsammans. Jag tycker inte det tjänar något till att ta en taxi den lilla biten.

Jag har inte råd att träna Romeo på det här sättet. Det måste finnas någon annan lösning att få honom att bara lämna mormor på flygplatsen.

Jag vet, jag ska be Juan om hjälp. Jag är lite förargad för att Juan gjort sina robotar så osjälvständiga. Vad är det för idé med det?