– Drapsrobotene svikter moralsk og juridisk

Det israelske rakettforsvaret Iron Dome avfyrer et missil for å avskjære raketter fra Gaza. Scanpix/Reuters.
Det israelske rakettforsvaret Iron Dome avfyrer et missil for å avskjære raketter fra Gaza. Scanpix/Reuters.
Artikkelen fortsetter under annonsen

Menneskerettighetsorganisasjonen Human Rights Watch advarer igjen mot autonome våpensystemer, såkalte «drapsroboter», i en rapport i forkant av et FN-møte i Geneve 27. august.

Denne artikkelen er over ett år gammel og kan innholde utdatert informasjon

Artikkelen fortsetter under annonsen

«Hel-autonome våpensystemer er blant de mest skremmende militærteknologiene som utvikles i dag», skriver Human Rights Watch (HRW).

Mer enn 70 av verdens land sender sine representanter til FN i Geneve fra 27. til 31. august, for det sjette møtet om autonome våpen siden 2014. I forkant av møtet går HRW og en rekke samarbeidspartnere igjen ut med en advarsel om det de har kalt «drapsroboter».

Dette er teknologi som kan ta beslutninger om å skade og drepe uten mennesker som kontrollinstans.

I en rapport offentliggjort tirsdag argumenterer Human Rights Watch (HRW) for at hel-automatiske, autonome våpensystemer - såkalte «drapsroboter» - bryter med viktige prinsipp i internasjonal humanitær lovgivning.

«Iron Dome»

Rapporten fokuserer på de juridiske og moralske innsigelsene mot slik våpenteknologi.

Det finnes allerede automatiserte systemer, som vaktpostene i den demilitariserte sonen mellom Nord- og Sør-Korea og det israelske rakettskjoldet «Iron Dome», men disse kan ennå ikke handle helt uten menneskelig kontroll, skriver The Guardian.

Artikkelen fortsetter under annonsen
Artikkelen fortsetter under annonsen

HRW koordinerer «Kampanjen mot drapsroboter», som ABC Nyheter også tidligere har omtalt. Les også: – Katastrofalt for menneskelig sikkerhet. Kampanjen ble opprettet i 2013, og består av 75 ikke-statlige organisasjoner i 32 land.

HRW og partnerorganisasjonene går inn for et internasjonalt forbud mot våpen som kan operere uavhengig av menneskelig kontroll.

Artikkelen fortsetter under annonsen
Artikkelen fortsetter under annonsen

Les også: Nårmaskinen får velge

– Oljefondet følger med

Fra et tidligere møte om våpenkontroll hos FN i Geneve. Arkiv/illustrasjonsfoto fra FN i Geneves Flickr-konto.
Fra et tidligere møte om våpenkontroll hos FN i Geneve. Arkiv/illustrasjonsfoto fra FN i Geneves Flickr-konto.

Oljefondets etikkråd advarte i 2016 selskaper som fondet investerer i, mot å utvikle såkalte drapsroboter.

– Å tillate utvikling og bruk av drapsroboter vil undergrave moralske og juridiske standarder, sier våpengransker hos HRW, Bonnie Docherty, i en pressemelding.

– Nasjoner bør samarbeide om å komme utviklingen i forkjøpet før slike våpensystem spres verden rundt, sier hun.

Prinsipper mot robotvåpen

Human Rights Watchs rapport vurderer hel-autonome våpensystem juridisk opp mot den såkalte Martensklausulen, som er inkludert i Geneve-konvensjonen om humanitær folkerett. Martensklausulens hovedfunksjon er «å unngå rettstomrom under en væpnet konflikt, ved at det fastslås at selv om andre regler under krigens folkerett ikke er anvendelige, «skal sivile og stridende beskyttes av og stilles under folkerettens prinsipper slik som de utspringer av etablerte sedvaner, av humanitære prinsipper og av den offentlige samvittighets krav"», skriver Store Norske.

I rapporten mener HRW og Harvard at fullstendig autonome våpensystemer, såkalte «drapsroboter», bryter med dette viktige prinsippet: «Slike våpen vil undergrave prinsippet om menneskelighet, fordi de ikke vil være i stand til å bruke hverken medfølelse eller juridisk-etisk dømmekraft i avgjørelser om dødelig maktbruk.»

Rapporten offentliggjøres i samarbeid med Harvard Law School, der Docherty er visedirektør for spørsmål om væpnet konflikt og beskyttelse av sivile.

Artikkelen fortsetter under annonsen

Les også: «Drapsroboter» vekker bekymring (Artikkel fra 2014).

26 land går inn for forbud

Human Rights Watch og «Kampanjen mot drapsroboter» ber partene starte forhandlinger om menneskelig kontroll med våpensystemer og bruk av makt til neste år.

De fleste av landene som deltar på møtet i Geneve har gått inn for en eller annen menneskelig kontroll ved maktbruk. Hittil har 26 land uttrykkelig gått inn for et forbud mot hel-autonome våpen.

Norge er ikke blant landene som allerede har tatt klart til orde for et forbud, ifølge HRWs pressemelding.

I juni 2018 svarte utenriksminister Ine Eriksen Søreide på spørsmål om Norges holdning til slike våpen:

«Norge er blant de stater som er skeptiske til hvorvidt det er mulig å utvikle fullt ut autonom våpenteknologi som vil kunne operere innenfor folkerettens rammer. Vårt utgangspunkt er at alle våpentyper som ikke kan anvendes i tråd med humanitærretten, må anses som forbudte.»

Artikkelen fortsetter under annonsen
Artikkelen fortsetter under annonsen

«Norge vil ta en aktiv rolle i diskusjonen om fullt ut autonome våpen, både i og utenfor CCW, for å sikre at grunnleggende prinsipper om menneskelig kontroll og etterlevelse av humanitærrettens bestemmelser legges til grunn. Regjeringen viderefører Norges langvarige pådriverrolle innenfor humanitærretten.» (Kilde: Regjeringen.no).

Dobler budsjettene

Flere tusen forskere og eksperter på kunstig intelligens og ulike livssynsorganisasjoner støtter også forbud. I juni la Google frem et sett etiske prinsipper som inkluderer et løfte om ikke å utvikle kunstig intelligens for bruk i våpen.

Gransking International Data Corporation har gjennomført tyder på at budsjettene til robotikk på verdensbasis vil dobles fra 91,5 milliarder dollar i 2016 til 188 milliarder i 2020. Organisasjonen mener dette vil bringe hel-autonome våpensystem nærmere.

Kilde: HRWs pressemelding

Les også:

Advarer mot bruk av kunstig intelligens i arbeidslivet

Slik skal vi hindre kunstig intelligens i å overta verden

Norskearbeidere minst truet av roboter