Om etik inom artificiell intelligens

E

När icke-tekniker ser på teknikens utveckling är det somliga som börjar tänka: är det här bra? Vart kan det här leda?

Det gäller Artificiell intelligens likaväl som annat. Jag ska här fundera lite över etik inom artificiell intelligens.

Blir vi översköljda av etikfrågor?

Det är inte så enkelt som inom robotiken, där Isaac Asimov redan på 1940-talet (krigsåren, kanske) formulerade de s.k. robotlagarna:

1. En robot får aldrig skada en människa eller, genom att inte ingripa, tillåta att en människa kommer till skada.

2. En robot måste lyda order från en människa, förutom om sådana order kommer i konflikt med första lagen.

3. En robot måste skydda sin egen existens, såvida detta inte kommer i konflikt med första eller andra lagen.

Man har diskuterat dessa lagar om och om igen, t.ex. ställt de sedvanliga dilemma-frågorna: Om man måste offra en människa för att rädda flera, hur ska man då göra? 

Men det är inte sådana frågor jag ska ställa nu. 

Artificiell intelligens kan förvissa skada människor, det pågår en hel del tankar (kanske t.o.m. utveckling) inom området robotkrigföring, men det finns andra etiska frågor, mer vardagsnära. 

Vad säger en leksak?

Allt behöver inte handla om robotar. Det finns artificiell intelligens invävd i mycket mer än vi (eller i alla fall jag) trodde.

Just nu finns t.ex. program som översätter språk eller program som söker efter information, program som anpassar information till användaren (t.ex. vilka inlägg som visas på Facebook eller vilka tidningsartiklar som erbjuds en viss läsare) och så förstås bildigenkänningsprogram. 

Där finns väl inga etiska problem? Förvisso. Jag minns de första taligenkänningsprogrammen. Jag lyckades aldrig tala in en enda enkel siffra eller ett enkelt kommando. Tills jag förstod att taligenkänningsprogrammen på den tiden var mycket dåliga på kvinnliga röster. När jag senare kom till USA och försökte ge ett telefonnummer muntligt, misslyckades jag. Min svengelska förstods inte av programmet. Det här är exempel på tidiga problem, men problemen fortsätter. 

Googles ”translate” t.ex. översätter hyggligt till engelska, men ganska ohyggligt till svenska. Kolonialism? Nej, det finns helt enkelt en större databas av engelska texter. Oskyldigt? Nej.

Program som känner igen ansikten, och som många börjat med numera, har svårare att känna igen mörkhyade än ljushyade. Är det en ”barnsjukdom”? 

Det sägs att det är svårare för ett program för ansiktsigenkänning att känna igen mörkhyade.

Kan det vara så att människor från ”’socialt utsatta” områden inte får samma erbjudanden som människor från gynnade områden? t.ex. om resor, skolor, arbete eller medicin? Jag påstår inte att det är så, men en hel del beror på hur man valt materialet som AI tränas på. 

En småsak möjligen, men nog så irriterande är att Facebook väljer att visa inlägg från mina flitigaste vänner i första hand. Och eftersom jag inte scrollar så långt, får jag inte se inlägg som människor som är nya på Facebook gör. En bidragsgivare blev riktigt sur och anklagade en grupp för att negligera henom. Vi blev sura tillbaka, och det blev riktigt citronlikt tills vi förstod varifrån vårt förmodade ointresse kom: Facebook hade helt enkelt uteslutit personens inlägg från de flesta av oss. Etik? Javisst, det skadade uppenbarligen personen. 

Vi kanske inte förstår effekterna förrän det är för sent. Eller också hinner vi inte bry oss. Det finns så mycket att läsa. 

I min pågående bok berättar jag om Pedro, ett robotbarn som görs att vara fyra år gammal. Men hur gammal blir han med träning?

Lämna ett svar

E-postadressen publiceras inte. Obligatoriska fält är märkta *

Denna webbplats använder Akismet för att minska skräppost. Lär dig hur din kommentardata bearbetas.