En utstrakt “outsourcing” av oppgaver til autonome roboter kan medføre moralsk apati.
De siste årene har vi sett en øket oppmerksomhet rundt roboter. De fleste av diskusjonene dreier seg om hvorvidt roboter vil medføre færre arbeidsplasser. Dette er opplagt et svært viktig spørsmål, likevel er det ikke denne diskusjonen jeg vil bidra til her. I stedet vil jeg forsøke å analysere andre former for engstelser som særlig kommer til uttrykk i forhold til svært avanserte, såkalt autonome roboter. Dette er roboter som selv tar avgjørelser om hva de skal gjøre uten at det er mennesker i “beslutningsloopen”.
Det er våpen som selv avgjør hvem som skal drepes og så dreper.
Fullt ut autonome roboter tilhører foreløpig science fiction. At slike maskiner ennå ikke eksisterer, betyr imidlertid ikke at vi ikke engster oss for dem eller at vi skal la være å ta forholdsregler. Et eksempel på slikt forebyggende arbeid finner vi nå hos Human Rights Watch som arbeider for et forbud mot autonome våpen, såkalte Killer Robots. Dette er våpen som fullt ut – det vil si uten noen form for menneskelig inngripen – tar avgjørelsen om hvilke mål som skal tas ut. Eller, for å si det på lekmansspråk, det er våpen som selv avgjør hvem som skal drepes og så dreper.
Det er ikke usannsynlig at arbeidet mot krigerroboter vil bære frukter. Det skal nemlig ikke mye fantasi til for å forestille seg at et slikt våpen kan komme til å rette seg mot en selv, ja at det faktisk kan ende med å utslette oss alle. Ut fra en slikt resonnement, virker det derfor nokså opplagt at fullt ut autonome krigerroboter nødvendigvis er et onde. Og dette argumentet mot Killer robots kan faktisk utvides til andre områder. For dersom de ikke lenger kan kontrolleres av oss, vil roboter kunne utgjøre en trussel uansett hvilket område de i utgangspunktet var laget for.
Jeg har skissert ett argument mot fullt ut autonome roboter. Argumentet er at når de ikke lenger er kontrollert av oss, har vi ikke lenger noen garanti for at robotene ikke vil kunne reprogrammere seg selv og vende seg mot oss. Å så fall har vi selvsagt grunn til å frykte dem, det være seg om de i utgangspunktet skulle vært designet som krigere, politifolk eller leger. Men er dette et sannsynlig scenario? Og hvis ikke, er det andre argumenter som tilsier at autonome roboter vil være et onde?
Maskiner spiller bedre sjakk enn noen av oss.
På 80-tallet var kunstig intelligens et hett tema i filosofien. Spørsmålet som den gang ble drøftet med stor intensitet, var om maskiner kunne tenke. I denne såkalte AI-debatten (Artificial intelligence) var det mange argumenter som minner om dem vi finner i dagens robotdiskusjoner.
Motstanderne av AI brukte to hovedformer av argumenter. Den ene formen ble kalt “dårlig erstatning” (poor substitute). Disse argumentene gikk ut på at uansett hvor god en maskin var til å løse oppgaver, ville den uansett ikke kunne komme på høyden med oss. Ett eksempel som gikk igjen i denne debatten, var sjakkspill. Mange hevdet at en maskin aldri ville kunne bli like god som et menneske til å spille sjakk, fordi en god menneskelig sjakkspiller brukte tenkemåter som ikke lot seg programmere og som en maskin dermed ikke kunne benytte seg av.
Et annet eksempel var språkforståelse. Det ble hevdet at en maskin aldri ville være i stand til å forstå setninger den ikke allerede hadde lært seg, en ferdighet som nettopp kjennetegner språkforståelse. Og siden slik forståelse ble antatt å være avgjørende for å oversette fra tale til skriftspråk, mente mange at man heller ikke ville lykkes med å lage dikteringsprogrammer.
I dag er det opplagt at disse argumentene ikke holdt mål. Maskiner spiller bedre sjakk enn noen av oss og dikteringsprogrammene er, om ikke perfekte, meget gode. Jeg bruker faktisk ett i skrivende stund. Det vi kan lære av de “dårlig erstatningsargumentene” fra 80-tallet, er at det ser ut til å være et empirisk spørsmål om maskiner vil kunne bli like gode som mennesker til å utføre en bestemt oppgave. Vi kan altså neppe spekulere oss frem til hva de vil kunne og ikke.
Og vi skal også merke oss at vi mennesker kanskje ikke er så gode som vi tror.
Dette kaster igjen lys over vår engstelse for de autonome robotene. For vi kan nå skille mellom to adskilte former for engstelse. Den ene er engstelsen for at robotene ikke vil kunne bli like flinke som oss til å utføre oppgaver. Dette argumentet brukes for eksempel mot Killer robots. Det hevdes blant annet at de ikke vil kunne klare å skille godt nok mellom sivile og stridende, og at de ikke vil kunne klare å utvise godt nok skjønn for anvendelse av proposjonalitetsprinsippet. I så fall vil Killer robots ikke kunne operere i tråd med folkeretten og da er svaret enkelt. Vi kan verken fra et juridisk eller moralsk synspunkt la kriger bli utført av slike maskiner.
Vi kan også tenke oss et analogt resonnement mot robotleger. For vil en slik robot kunne bli like flink til å stille diagnoser, vil den kunne utøve godt nok skjønn for å avgjøre når behandlingen ikke lenger fungerer og skal opphøre? Jeg vet ikke hvor dyktige robotene kan bli. Men det er også poenget mitt. Jeg tror ikke det er mulig å gi noe apriori svar på hvilke oppgaver roboter vil være i stand til å utføre like godt som oss. Og vi skal også merke oss at vi mennesker kanskje ikke er så gode som vi tror.
Forskning viser for eksempel at når en lege stiller en diagnose, påvirkes hun av en rekke forhold som ikke er relevante for avgjørelsen. Blant annet vil diagnoser som er stilt tidligere på dagen, markant øke sannsynligheten for at samme diagnose stilles igjen. Og da snakker vi ikke om smittsomme sykdommer som er i omløp. Samtidig utvikles det stadig mer avanserte og presise programmer for å stille diagnoser og beregne optimal medisinering. Det finnes i dag blant annet en app som kan brukes for å finne ut om man har Parkinson og som også muliggjør en presisjonsmedisinering som ingen lege kunne foreskrevet.
Den andre formen for engstelse vi ser i debatten, er at selv om robotene skulle kunne bli like flinke som oss til å utføre oppgaver, er det likevel “noe” de mangler. Argumenter som går ut på at maskiner uansett hvor dyktige de er til å løse oppgaver, mangler noe vesentlig som mennesker har, ble kjent i AI-debatten som “hult skall-argumenter” (hollow shell): Maskiner kunne kanskje fra utsiden se ut som om de handlet som oss. Men i motsetning til mennesket, er maskiner bare et hult skall uten noe form for indre liv.
Ett berømt “hult skall-argument” ble lansert av filosofen John Searle og kalles The Chinese Room Argument: Forestill deg at du, som ikke kan kinesisk, sitter i et rom. I rommet er det en glassluke med en hylle der du kan sette opp klosser med kinesiske symboler slik at de som er på utsiden av rommet kan lese dem. De som er utenfor kan også sette opp klosser som du kan se fra der du sitter.
Inne i boksen har du en rekke klosser, du har også en instruksjonsbok, skrevet på engelsk der det står hvilke klosser som skal opp, i hvilken rekkefølge, gitt den eller den kombinasjonen fra de kinesiskkyndige utenfor rommet ditt. For dem som ser dette utenfra, og som kan kinesisk, ser det ut som om du også kan det. Men det er selvsagt feil, for du kan slett ikke kinesisk.
Det hevdes blant annet at det å bli offer for en maskins avgjørelse, strider mot menneskets iboende verdighet.
Poenget til Searle er at på samme måte som personen i boksen ikke kan kinesisk fordi symbolene for denne personen er meningsløse, mangler maskiner også språkforståelse. For mens mennesker kan gi symboler mening, kan en maskin ikke gjøre annet enn personen i det “kinesiske rommet”, altså å manipulere meningsløse symboler. Ifølge Searle var det altså mening som manglet hos en maskin, uansett hvor dyktig den måtte se ut “fra utsiden”.
I dagens debatt rundt autonome roboter peker “hult skall-argumenter” på andre kandidater. Noen mener at selv om disse våpnene skulle handle i overensstemmelse både med de folkerettslige og moralske normene for krig, er det verre å bli drept av en autonom robot enn av et våpen som kontrolleres av mennesker. Det hevdes blant annet at det å bli offer for en maskins avgjørelse, strider mot menneskets iboende verdighet. Jeg er selv ikke overbevist av dette argumentet og er ikke sikker på hvilke intuisjoner som ligger til grunn for det. Men jeg er tilbøyelig til å tro at det bunner i at man opplever at det bryter med ens verdighet som menneske å bli offer for en maskin som bare følger sine instrukser, og som mangler de evner vi har til å la våre handlinger styres av følelser og refleksjoner.
Men i så fall er dette “hult skall-argumentet” heller tvilsomt. Hvis det i en krigssituasjon ville være moralsk tillatt å ta liv, ville det rimeligvis også være tillatt når den som tar beslutningen om å ta liv (og den som tar liv) ikke styres av sine følelser og refleksjoner, men kun handler i tråd med de reglene som gjelder for moralsk krigføring.
Også på andre områder der det tas livsviktige avgjørelser, som for eksempel når legen bestemmer at respiratoren skal skrues av, vil det avgjørende være at beslutningen som treffes er i overensstemmelse med de normer og regler vi har for disse avgjørelsene. Vi krever ikke at legen som er beslutningstaker i slike situasjoner, i tillegg skal handle ut fra for eksempel medfølelse eller nestekjærlighet. Som sådan er det helt akseptabelt at hun er et “hult skall”. Og da kunne hennes oppgave vært overlatt til en autonom robot.
Roboter kan neppe selv kunne komme til å ha en opplevelse av seg selv som handlende.
Slik jeg ser det kan altså roboter med stor sannsynlighet bli like gode, om ikke bedre enn oss, til å utføre en rekke oppgaver. Videre vil det i mange sammenhenger ikke spille noen rolle om de kun er hule skall. For når vi avgjør om et menneske utfører sin profesjon som det skal, vil vi ofte heller ikke kreve mer av et menneske enn at det handler i overensstemmelse med de juridiske og profesjonsetiske regler som gjelder. Hennes indre liv, følelser, refleksjon og motivasjon, kan altså være irrelevant for spørsmålet om hun gjorde det rette.
Likevel peker visse “hult skall-argumenter” på en vesentlig mangel ved roboter. Roboter kan neppe selv kunne komme til å ha en opplevelse av seg selv som handlende. Og fordi de mangler dette, mangler de også opplevelsen av ansvar. For denne opplevelsen springer nettopp ut fra det å oppleve seg selv som en som iverksetter en hendelsesrekke, en rekke som begynner i mitt valg og som dermed er opp til meg å realisere. Opplevelsen av ansvar gir dermed også opphav til spørsmålet “Hva bør jeg gjøre?”, spørsmålet som er en forutsetning for all moralsk refleksjon.
Mennesket er opplagt ikke ufeilbarlig i sine forsøk på å besvare dette spørsmålet. Men det evner i hvert fall å stille det, og å stille det igjen og igjen. Selv om roboter kan utføre oppgaver i tråd med faktisk eksisterende lover, normer og regler, kan de neppe noen gang selv forholde seg bevisst og kritisk til dem. Og siden de faktiske lover, regler og normer ikke nødvendigvis er som de bør, er det kritiske blikk en forutsetning for forbedring. Moralske fremskritt kan antakelig bare oppstå der aktørene er i stand til å bedrive kritikk, det være seg av målene, midlene eller selve grunngivningen for handlingene. Med mindre en del av ressursene robotene frigjør kan overføres til slik normativ kritikk, kan en utstrakt “outsourcing” til roboter medføre moralsk apati og stagnasjon. Dét er det grunn til å frykte.
Kommentarer