Välj en sida

Etik och moral ställer frågor om AI på sin spets

Tema: Artificiell intelligens

Kan en robot bli präst? Kan en artificiell intelligens vara ansvarig för sina egna handlingar? Vilken etik ska en självkörande bil ha? När datorerna blir smartare väcks en rad filosofiska och etiska frågor i gränslandet mellan människa och maskin.

Text: Jennie Aquilonius

Självkörande bussar rullar på Barkarbystadens gator i Stockholm. I Trollhättan beslutar en robot vem som har rätt till försörjningsstöd. Samtidigt har digitala assistenter flyttat in i våra hem där de tjänstvilligt svarar på frågor om vädret och spelar musik på vårt kommando.

Tekniken blir allt smartare, lär sig saker på egen hand och fattar egna beslut. Men vad betyder det i fråga om moral och etik?

Det funderar teologen Rikard Roitto, docent i Nya testamentet vid Enskilda högskolan Stockholm, en hel del på. Tillsammans med andra teknik- och teologiintresserade personer skriver han en bok om teknologi och livsfrågor. När skillnaden mellan mänsklig och artificiell intelligens tycks krympa väcks frågor som “Vad är en människa?” och “Kan en AI få ett medvetande?”.

– Men filosoferna är inte överens om vad det innebär att ha ett medvetande. Vi kommer att kunna skapa artificiella intelligenser som beter sig som om de hade ett medvetande, att de reflekterar och är medvetna om sin egen existens, men eftersom vi inte vet vad medvetande är kan vi aldrig mäta om de faktiskt har ett, säger Rikard Roitto.

Artificiell intelligens etik och moral

Ju mer kompetenta AI-systemen blir, menar han, ju närmare vi tillåter dem att interagera med oss och ta över uppgifter i våra liv, desto viktigare blir det att de uppför sig moraliskt. Men vilken etik ska till exempel en självkörande bil matas med? En filosof, resonerar Rikard Roitto, skulle nog svara “lyckooptimering”, alltså att bilen ska välja det alternativ som orsakar minst skada för minst antal människor. Men det kan innebära att bilen inte alltid prioriterar sin ägare om den vid en olycka måste välja mellan ägarens och en gångtrafikants liv. Frågan är hur många som skulle köpa en sådan modell.

– Hur en självkörande bil ska agera i pest eller kolera-situationer är ett dilemma som vi kanske måste lösa med lagstiftning.

Frågan är också vem ska bestämma vilka värderingar en artificiell intelligens ska ha. I västvärlden vill vi säkert mata den med demokratiska idéer och mänskliga rättigheter, funderar Rikard Roitto. Men om IS-krigare kommer över tekniken? Då handlar kanske värderingarna om att hela världen ska underkasta sig kalifatet.

Och om en dator blir tillräckligt intelligent, kan den då ses som ansvarig för sina handlingar? Ju högre grad av autonomi, desto högre grad av ansvar, resonerar Rikard Roitto. I dag har vi börjat bygga system som tillåts ha självständiga lärprocesser och fatta egna beslut. Här har vi skapat utrymme för AI att lära sig dåliga saker. Som exempel tar han e-handelsbolaget Amazons försök att bygga en rekryterings-AI som skulle ranka jobbansökningar.

– Men AI:n misslyckades totalt. Den lärde sig att välja män. Många nya AI-system är byggda så att de ibland tar genvägar, precis som vi människor gör. Man gör snabba bedömningar utifrån samvariation. Om du matar AI:n med ett antal ansökningar för att träna upp den, och branschen är mansdominerad, då räknar AI:n ut att män sannolikt är mer kompetenta. Det gäller att vi tänker efter när vi programmerar så att den inte gör samma misstag som vi människor.

Citat
I dag har vi börjat bygga system som tillåts ha självständiga lärprocesser och fatta egna beslut. Här har vi skapat utrymme för AI att lära sig dåliga saker.

Rikard Roitto, teolog och docent vid Enskilda högskolan Stockholm
Präster och psykologer är några av de yrken som anses löpa minst risk att bli utkonkurrerade av modern teknik. Men på University of Southern California i USA har forskare framgångsrikt använt robotterapeuten Ellie tillsammans med krigsveteraner.

Det var lättare för de före detta soldaterna att berätta om sina PTSD-symtom för datorsystemet än för en människa. Tanken är inte att Ellie ska ersätta en riktig terapeut, utan samla information och vara ett första steg till hjälp.

Skulle det då vara möjligt med en AI-präst? Enligt Rikard Roitto beror det på vilken teologisk tradition du hör till. Inom den katolska kyrkan kan bara prästvigda personer ge syndernas förlåtelse vid bikten. Och han tror inte att katolska kyrkan kommer att prästviga artificiella intelligenser inom någon snar framtid. Inom de lutherska och reformerta traditionerna ses prästämbetet mer som en ordningsfråga, det är präster som döper och håller i nattvarden.

Han säger att man i princip skulle kunna tänka sig att en AI ingår i ordningen för till exempel bikten. Vi skulle kunna utrusta den med teologisk kompetens för att vägleda i existentiella frågor.

Det är möjligt att det skulle kännas tryggt att få bekänna sina tillkortakommanden för någon som inte är en människa. Men därmed skulle vi kanske förlora den positiva erfarenheten av att bekänna något för en annan människa. Någon som lyssnar på dig med empati och faktiskt kan känna hur det är att vara i den situationen du är i, säger Rikard Roitto.

Virginia Dignum artificiell intelligens

Virginia Dignum är professor med fokus på AI och etik vid Institutionen för datavetenskap vid Umeå universitet. Hit kom hon i oktober för att bygga upp och leda en forskargrupp med fokus på social och etisk artificiell intelligens. Foto: Mikael Hansson

Flera stora tänkare, som den framlidna fysikern Stephen Hawkins och svenskfödda Nick Boström, professor i filosofi vid Oxford University, har pekat ut artificiell intelligens som det största hotet mot mänskligheten. Vi skulle kunna förlora kontrollen över en superintelligens som kan uppdatera sig själv och förbättra sin egen förmåga snabbare än människan, menar de. Kanske blir vi själva utrotade.

Men det här framtidsscenariot ger Virginia Dignum, professor med fokus på AI och etik vid Umeå universitet, inte mycket för.

– Vad systemen kan lära sig och vilka beslut de fattar är beroende av hur vi designar dem, säger hon.

AI-toppforskaren Virginia Dignum rekryterades till Umeå universitet i oktober för att bygga upp och leda en forskargrupp för social och etisk artificiell intelligens. Hon ingår i den expertgrupp som på uppdrag av EU-kommissionen tagit fram de första etiska riktlinjerna för AI inom Europeiska unionen, de lanserades i början av april.

I sitt arbete har gruppen utgått från de mänskliga rättigheterna. Grunden är att AI ska värna individens frihet och självständighet samt rättvisa och jämlika samhällen. Systemen får inte skada människor och ska vara byggda så de kan förklara på vilka grunder de har fattat beslut.

Hon berättar att de etiska riktlinjerna behövs för att regeringar, beslutsfattare och företag ska förstå vad som står på spel. Det kan handla om den personliga integriteten eller om diskriminering när en AI ska bestämma vem som ska få ett lån, a-kassa eller ett jobb. Expertgruppen har också tagit fram en checklista med en mängd frågor för den som ska köpa eller designa ett system. Du behöver till exempel veta hur systemet är tränat och vilken data det använder.

– Vi vill att folk ska början titta på frågorna och fundera över om de vet svaren.

Citat
Det handlar inte om tekniken i sig utan vad vi vill göra med den. Elektricitet kan till exempel användas för att ge människor ljus, men vissa länder använder elektricitet för att döda folk.

Virginia Dignum, Umeå universitet
Virginia Dignum efterlyser också mer kunskap hos allmänheten om artificiell intelligens och hur tekniken kan användas. Först då kan medborgarna delta i diskussionen på ett demokratiskt sätt. En kurs om AI för allmänheten är också på gång vid Linköpings universitet. Frågan om artificiell intelligens är för viktig för att bara lämnas till ingenjörerna, säger Virginia Dignum.

– Det handlar inte om tekniken i sig utan vad vi vill göra med den. Elektricitet kan till exempel användas för att ge människor ljus, men vissa länder använder elektricitet för att döda folk. Jag kan använda en hammare för att slå i en spik, men också för att skada någon.

Men lika lite som hammaren kan en AI ställas till svars för sina handlingar, enligt Virginia Dignum. Artificiell intelligens är ett verktyg som byggs och används av människan.

– Systemet är komplext och det kan vara svårt att peka ut vem som är ansvarig. Det är därför det är viktigt med transparens och att vi förstår hur systemet fungerar.

I juni startar expertgruppen ett pilotprojekt för att testa riktlinjerna och checklistan i praktiken. Samtidigt ska gruppen ta fram rekommendationer till EU-kommissionen och medlemsstaterna om huruvida de regelverk och den lagstiftning som finns för AI behöver förändras.

0 kommentarer

Skicka en kommentar

E-postadressen publiceras inte. Obligatoriska fält är märkta *

Bli prenumerant på A-liv (det är gratis!)

Missa inget nummer av A-liv och håll dig informerad genom att bli e-postprenumerant. Du anmäler dig på aea.se/aliv.

Share This