Kan autonome våpen være etiske?

Kan autonome våpen være etiske?

. 9 minutter å lese

Nils Terje Lunde

Oberstløytnant, sjef faginstitutt, Forsvarets tros- og livssynskorps. Har undervist i etikk på Luftkrigsskolen og Forsvarets høgskole

Et av de nye og krevende militærfaglige spørsmålene er knyttet til utviklingen av autonome våpen. Hvordan skal vi forstå slike våpen, hva betyr det for planlegging, ledelse og gjennomføring av militære operasjoner og hvordan skal vi stille oss til denne utviklingen?

Disse spørsmålene diskuteres i sin bredde i boken Autonomi i militære operasjoner, redigert av Camilla Cooper og Dag Henriksen, redigert av Camilla Cooper og Dag Henriksen. Boken er utgitt på Cappelen Damm Akademisk i 2023. Jeg har skrevet et av kapitlene i boken, kapittelet «Autonome våpen – etiske perspektiver». Denne artikkelen bygger på dette kapittelet, men i en forkortet og mer popularisert form. For de som er interessert i en bredere og faglig fordypende diskusjon om temaet vil jeg henvise til det nevnte bokkapittelet.

Spørsmål om autonome våpen er etisk akseptable eller ikke, er svært omdiskutert. Noen mener at slike våpen er etisk uakseptable og at de derfor må forbys, mens andre mener at slike våpen nok kan være problematiske, men at det er mulig å regulere dem slik at det allikevel blir etisk akseptabelt, ja endog at det er positive forhold ved slike våpen som gjør det enklere å bruke militærmakt på en etisk akseptabel måte.

I denne artikkelen tar jeg ikke mål av meg å analysere hele den etiske debatten om spørsmålet. Isteden vil jeg presentere og diskutere de ulike etiske argumentene som kommer frem. Disse etiske argumentene er ikke nødvendigvis entydige. Flere av dem kan problematiseres og brukes som argumenter både for og mot slike våpen. Slik er det ofte med etiske argumenter. Det er ikke matematikk, hvor det finnes entydige svar med to streker under svaret. Snarere er det refleksjon over krevende og komplekse spørsmål, hvor det er mulig å tenke forskjellig, og dermed også komme til forskjellige konklusjoner. De ulike argumentene kan imidlertid være et utgangspunkt for en slik refleksjon og samtale.  

Det er også et annet forhold som vanskeliggjør klare og enkle konklusjoner. Diskusjon om autonome våpen er delvis en fremtidsdiskusjon. Dermed kan argumentene ikke uten videre etterprøves empirisk. De kan dermed lett fremstå som hypotetiske. Når det er sagt, går det også an å se på dette som noe positivt. Som regel er det slik at den etiske diskusjonen kommer i etterkant av utvikling av våpen og krigføringsmetoder. I spørsmålet om autonome våpen står vi i en sitasjon hvor det er mulig å diskutere det i forkant. Det gjør at diskusjonen ikke trenger begrenses til hvordan vi skal forholde oss til en foreliggende realitet, men hva slags utvikling som er ønskelig.

Humanitetsargumentet

Det som utgjør selve det grunnleggende etiske problemet i spørsmålet om autonome våpen, er at slike våpen er autonome. Det er ikke mennesker som tar avgjørelsene om liv og død, men maskiner. Spørsmålet er om det da i det hele tatt gir mening å tale om etisk begrunnede avgjørelser. For er det ikke slik at etikk dreier seg om valg foretatt av mennesker? Kan maskiner ta etiske beslutninger? En slik problematisering av utviklingen av autonome våpen finner vi i særlig grad i rapporten Shaking the Foundations: The Human Rights Implications of Killer Robots fra Human Rights Watch fra 2014. Med et slikt utgangspunkt blir lett  autonome våpen definert som uetiske eller onde i seg selv – det som i fagterminologien kalles mala in se – latin: onde i seg selv.

Dette kan enten begrunnes formelt eller materielt. Formelt kan argumentet være at det kun er menneskelige beslutninger som kan defineres som etiske. Materielt kan argumentet være at det å ta liv av andre mennesker ikke kan «delegeres til maskiner», men må foretas av mennesker. Det blir inhumant i seg selv. Humanitet dreier seg altså ikke bare om manglende humanitet hos den som utøver maktanvendelsen (de autonome våpnene), men også om manglende respekt for mennesker som utsettes for maktanvendelsen. Autonome våpen vil med et slikt utgangspunkt ikke bare fremstå som inhumane, men også som respektløse idet de undergraver den menneskelige verdighet.[1] Legger vi en slik tilnærming til grunn, blir en videre drøfting av etikken ved autonome våpen meningsløs, fordi våpnene defineres som onde i seg selv.

Slike argumenter fremstår i utgangspunktet som tungtveiende. Spørsmålet er bare om det er et mer emosjonelt enn etisk argument. Det blir for enkelt å knytte et våpens humanitet eller inhumanitet til hvorvidt våpnene er autonome eller ikke. Autonomi er ikke absolutt, det vil alltid være en menneskelig bestemt komponent knyttet til utviklingen og bruken av slike våpen. Dermed blir det vanskelig å konkludere entydig med at slike våpen i sin karakter ikke kan underlegges etiske vurderinger. Det vil også være et spørsmål om slike våpen i seg selv kan sies å uttrykke en respektløshet overfor motparten. Da er det i så fall viktig å definere tydelig hva som skaper en slik respektløshet. Dersom dette dreier seg om fraværet av menneskelig øyekontakt mellom den som bruker et våpen og den som blir utsatt for et våpen, vil det i så fall være mer enn autonome våpen som blir problematiske. Da vil også den moderne industrialiserte krig fremstå minst like problematisk.

Ansvarsargumentet

Nært forbundet med humanitetsargumentet er ansvarsargumentet. Med ansvarsprinsippet menes at det må være noen som har ansvaret for bruken av militære maktmidler, og som kan stilles til ansvar for handlingene. Dette var hovedargumentet i en annen rapport fra Human Rights Watch, publisert i 2015, året etter den første rapporten. Den hadde tittelen: Mind the Gap: The Lack of Accountability for Killer Robots. Som tittelen på rapporten viser, legges det til grunn at autonome våpensystemer synliggjør et «ansvarsgap». Det argumenteres for at noen må kunne holdes juridisk og moralsk ansvarlig for konsekvensene av anvendelsen av våpensystemene, blant annet «ulovlige drap».

Det er vanskelig å si seg uenig i at ansvar er et sentralt etisk perspektiv. Det er heller ikke vanskelig å si seg enig i at ansvar forutsetter en menneskelig aktør. Spørsmålet er da om dette kan ivaretas også ved autonome våpen. En mulighet for å redusere ansvarsgapet er foreslått av Robert Arkin. Han mener det er mulig å utvikle normative etiske koder i våpensystemet som ivaretar ansvarsdimensjonen.[2] Mot dette kan det hevdes at ansvaret må knyttes til mer enn programmering. Det må også knyttes til bruk av våpnene, enten gjennom at ansvaret plasseres hos den militære lederen som har ansvaret for bruken av systemet, eller mer institusjonelt i den operative planleggingen.[3] Vi kan kanskje kalle dette for et prosessuelt eller prosedyremessig ansvar.

Kontrollargumentet

Et tredje argument i den etiske debatten er at autonome våpensystemer innebærer tap av menneskelig kontroll.[4] Rent umiddelbart kan dette fremstå som en variant av ansvarsargumentet, men mens ansvarsargumentet er knyttet til individnivå og på operasjonelt plannivå, ligger kontrollargumentet på et mer overordnet strategisk nivå. Det er knyttet til det grunnleggende prinsippet om at militærmakten skal stå under politisk kontroll.

Spørsmålet er hvordan autonome våpensystemer skal bedømmes ut fra et slikt prinsipp. Svaret forutsetter en nærmere beskrivelse av hvordan politisk kontroll utøves ved bruk av menneskelige aktører. Her står kommandoprinsippet og plikten til å adlyde ordre sentralt. I dette ligger også en tilsynsfunksjon med handlinger som utøves av personell, samt – om nødvendig – muligheten til å gripe inn og stoppe handlinger som utføres av personellet. Dette innebærer at om tilfredsstillende politisk kontroll med autonome våpensystemer skal ivaretas, må tilstrekkelige og hensiktsmessige tilsynssystemer og kontrollmekanismer være på plass. Det må, om nødvendig, være mulig å hindre og avbryte handlinger som utføres. Fra et etisk perspektiv vil muligheten for sikring av tilstrekkelig politisk kontroll med utvikling og bruk av autonome våpen være viktig.

Normaliseringsargumentet

Det fjerde etiske argumentet i debatten er at slike systemer kan føre til en normalisering av militær maktanvendelse. I den etiske tradisjonen som kalles «rettferdig krig», er et av de klassiske kriteriene at krig skal være siste utvei. Den etiske begrunnelsen for krig som siste utvei, er knyttet til konsekvensene. Krig har store negative konsekvenser, både direkte og indirekte.[5]

Det som gjør at utvikling av autonome våpensystemer kan føre til at terskelen for krig senkes, er i særlig grad at slike våpensystemer reduserer risikoen for egne tap betydelig. Ved autonome våpen vil krigen kunne utkjempes mellom maskiner istedenfor mellom mennesker. Det er altså en konsekvensvurdering som ligger bak. Slike våpensystemer kan altså føre til at terskelen for krig senkes, samtidig som konsekvensvurderingen også kan brukes som etisk argument for utvikling av autonome våpensystemer. Utviklingen kan føre til at soldatene beskyttes fra krigens direkte og mest alvorlige konsekvenser: tap av liv og helse. Selv om altså utviklingen av slike våpen kan bidra til at terskelen for bruk av militærmakt svekkes, må dette samtidig også sees i sammenheng med mulige positive konsekvenser knyttet til at menneskelig kan beskyttes bedre.

Effektiviseringsargumentet

Mens alle de fire etiske argumentene som jeg har presentert hittil, har vært argumenter som er blitt reist mot utvikling og bruk av autonome våpensystemer, er det siste etiske argumentet som skal løftes frem, primært et argument i favør av slik utvikling og bruk, nemlig argumentet om at slike våpensystemer vil kunne føre til en effektivisering.

En tydelig talsperson for effektiviseringsargumentet er Ronald Arkin. Han fremholder fire ulike grunner til at autonome våpensystemer er mer effektive enn bemannede våpensystemer.[6] For det første har de mulighet til å handle mer forsiktig enn bemannede våpensystemer. De trenger nemlig ikke å beskytte seg selv og bruke unødvendig våpenmakt i situasjoner med usikker målidentifikasjon. Behovet for egenbeskyttelse innebærer at man kan bli nødt å bruke mer våpenmakt enn det som strengt tatt burde være nødvendig, rent objektivt. Man slipper en slik egenbeskyttende maktanvendelse med autonome våpensystemer. Autonome våpensystemer trenger ikke å ha egenbeskyttelse som primær drivkraft.

For det andre vil autonome våpensystemer ha bedre sensorer enn mennesker for observasjoner av hva som skjer på stridsfeltet. Slike sensorer gir bedre situasjonsforståelse, hvilket igjen er en viktig forutsetning for hensiktsmessig maktanvendelse.

For det tredje vil autonome våpensystemer ikke ha emosjoner som vil kunne forstyrre vurderinger, og som også vil kunne skape hat og frustrasjon under stridshandlinger.

For det fjerde vil autonome våpensystemer slippe unna det menneskelige psykologiske problemet Arkin omtaler som «scenario fulfillment», og som kan føre til at man ser bort fra ny og avvikende informasjon i pågående krisesituasjoner og heller handler automatisert ut fra prosedyrer for et bestemt scenario.

Arkins argumenter for autonome våpensystemers effektivitet, og at effektiviteten har en positiv etisk betydning, fremstår i utgangspunktet som overbevisende. Spørsmålet er imidlertid om slike våpensystemer kan ivareta fortolkning av kompleksiteten i en krigssituasjon. Som Robert Sparrow har påpekt ligger begrensningene både i fortolkningen av situasjonen og muligheten til å foreta etiske avveininger. Autonome våpensystemer vil måtte ta utgangspunkt i etiske normsystemer som kan programmeres inn i systemene. Spørsmålet er om dette er tilstrekkelig, eller om det også er behov for etisk intuisjon, som igjen innebærer menneskelige aktører.[7]

Avslutningsvis må også nevnes en annen type argument som er blitt reist i den etiske debatten, nemlig faren for hacking og tekniske feil.[8] En slik potensiell trussel, som ikke er begrenset til autonome våpensystemer, men til moderne teknologi og databaserte løsninger generelt, vil åpenbart fremstå som et relevant perspektiv å ta med i en vurdering av effektivitetsargumentet.

Avslutning

Spørsmålet om autonome våpen har de senere årene fått en sentral plass i den militæretiske debatten. Det er ulike posisjoner i denne debatten, fra dem som betrakter slike våpen som uetiske i sin karakter, til dem som mener at de bidrar til en mer etisk akseptabel krigføring. .

Innenfor rammen av den etiske debatten om autonome våpen er det blitt formulert og presentert ulike etiske argumenter. De ulike argumentene gir relevante perspektiver for å vurdere autonome våpen fra et etisk perspektiv, men samtidig må det medgis at ingen av argumentene er entydige. Etisk sett er det mulig å konkludere forskjellig.

For egen del vil jeg være varsom med å konkludere med at utvikling og bruk av autonome våpen er uetisk i seg selv. Med ståsted innenfor den brede etiske tradisjonen som kalles «rettferdig krig-tradisjonen», ser jeg det som en mer sakssvarende tilnærming å sikre en best mulig regulering av slike våpen vurdert ut fra etiske og juridiske perspektiv, snarere enn å forby dem. Utvikling og bruk av slike våpen må imidlertid underlegges en vurdering og regulering, som gjelder for militære maktmidler for øvrig. Her vil de presenterte etiske argumentene være viktige vurderingsmomenter.

FOTNOTER

[1] Sparrow, Robert (2016). «Robots and Respect: Assessing the Case Against Autonomous Weapon Systems». I Ethics and International Affairs 30, nr. 1 (2016): 93–116.

[2] Arkin, Ronald C. Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive Robot Architecture. Teknisk rapport nr. GIT-GVU-07-11. Atlanta, GA: Georgia Institute of Technology, 2007, s. 9.

[3] Horowitz, Michael C. «The Ethics & Morality of Robotic Warfare: Assessing the Debate over Autonomous Weapons». Dædalus, Journal of the American Academy of Arts & Sciences, Vol. 145 (4) (2016). doi:10.1162/DAED_ a_00409; Sparrow, Robert (2016). «Robots and Respect: Assessing the Case Against Autonomous Weapon Systems». I Ethics and International Affairs 30, nr. 1 (2016): 93–116.

[4] Gramshaug, Katrine og Berntsen, Tor Arne S. «Ugh-faktoren: CCW og etiske innvendinger mot autonome våpensystemer». I Når dronene våkner: autonome våpensystemer og robotisering av krig, redigert av Tor Arne S. Berntsen, Gjert Lage Dyndal og Sigrid R. Johansen, 259-277. Oslo: Cappelen Damm Akademisk, 2016.

[5] Syse, Henrik. «Dronenes etikk – noen glimt fra debatten». I Når dronene våkner: autonome våpensystemer og robotisering av krig, redigert av Tor Arne S. Berntsen, Gjert Lage Dyndal og Sigrid R. Johansen, 248-258. Oslo: Cappelen Damm Akademisk, 2016.

[6] Arkin, Ronald C. Governing Lethal Behavior: Embedding Ethics in a Hybrid Deliberative/Reactive Robot Architecture. Teknisk rapport nr. GIT-GVU-07-11. Atlanta, GA: Georgia Institute of Technology, 2007.

[7] Sparrow, Robert (2016). «Robots and Respect: Assessing the Case Against Autonomous Weapon Systems». I Ethics and International Affairs 30, nr. 1 (2016): 93–116.

[8] Syse, Henrik. «Dronenes etikk – noen glimt fra debatten». I Når dronene våkner: autonome våpensystemer og robotisering av krig, redigert av Tor Arne S. Berntsen, Gjert Lage Dyndal og Sigrid R. Johansen, 248-258. Oslo: Cappelen Damm Akademisk, 2016.

Foto: Et ubemannet MQ-9 Reaper fly flyr et kampoppdrag over det sørlige Afghanistan/Wikimedia commons


Nils Terje Lunde

Oberstløytnant, sjef faginstitutt, Forsvarets tros- og livssynskorps. Har undervist i etikk på Luftkrigsskolen og Forsvarets høgskole

Er du enig/uenig med artikkelen, eller ønsker du å skrive for oss? Ta kontakt med redaksjonen og send inn ditt synspunkt. Bruk veiledningen vår.