KRONIKK

Ingen mennesker, ingen regler?

Økende bruk av kunstig intelligens og autonome våpen i krig utfordrer menneskelig dømmekraft og kontroll over voldsbruk. Uten felles regler risikerer vi et svært farlig kappløp mot en dystopisk fremtid.

Den ubemannede XQ-67A-testdronen ved General Atomics’ anlegg i California illustrerer kappløpet om KI-styrte militære systemer. Dette er likevel bare overflaten av hva autonome våpensystemer i dag er.
Publisert

Dette debattinnlegget ble først publisert på Altinget, som ABC Nyheter har et samarbeid med. 

Dette er Altinget

Altinget.no er Norges første rendyrkede politiske nettavis. Med 28 nisjemedier i Danmark og 11 i Sverige er Altinget allerede et etablert mediehus i Norden. Målet er å øke forståelsen for nasjonal og europeisk politikk gjennom nisjejournalistikk av høy kvalitet – med et nøytralt utgangspunkt.

At kunstig intelligens brukes i krig er ikke nytt. Det som er nytt, er hvor omfattende og raskt voksende bruken, investeringene og ambisjonene er. I løpet av få uker har flere hendelser synliggjort hvor kjapt utviklingen går – og hvor langt reglene henger etter.

Den 26. februar avviste KI-selskapet Anthropic det amerikanske Krigsdepartementets krav om la militæret bruke KI-systemene deres i helt autonome våpen, som er våpen som kan velge ut og angripe mål på egen hånd.

Den 28. februar startet Israel og USA en bombekampanje mot Iran, hvor de angrep flere tusen mål i løpet av de første dagene. Det er kjent at USA og Israel bruker KI-systemer i prosessen med å velge ut angrepsmål, men ikke kjent hvilke spesifikke mål systemene har bidratt til å peke ut.

Man har allerede sett svært urovekkende tegn på uansvarlig bruk av KI til valg av angrepsmål på Gaza. For at slik bruk ikke skal gjenta seg eller bli verre, er det nå viktig å jobbe for et felles internasjonalt regelverk. 

Den 26. februar avviste KI-selskapet Anthropic det amerikanske Krigsdepartementets krav om la militæret bruke KI-systemene deres i helt autonome våpen, skriver Gjerde.

Les også på Altinget: Hvem skal kontrollere bruken av kunstig intelligens?

Beslutninger om liv og død

KI og autonome systemer kan brukes til mye i militære sammenhenger, fra logistikk til operasjonsplanlegging. Det er ikke teknologien i seg selv som er farlig, men bruk av KI og autonomi i kritiske funksjoner, til beslutninger med liv-og-død-konsekvenser.

Krigens folkerett krever at stridende parter gjør mange løpende vurderinger: Hva er et legitimt mål? Hvilke konkrete objekter eller mennesker kan vi angripe? Har vi tilstrekkelig grunn til å tro at det vi observerer og vil angripe er et lovlig mål? Hvordan skal angrepet gjennomføres for å minimere sivile følgeskader?

Det er når man overlater disse beslutningene til KI-systemer eller autonome våpen at alarmbjellene begynner å ringe. 

Autonome våpen er ikke science fiction. De finnes i dag.

Det er menneskers ansvar å gjøre kritiske vurderinger i krig. Den dramatiske konsekvensen av økende bruk av KI og autonome våpen på slagmarken er at menneskers vurderinger ikke lenger nødvendigvis vil være direkte styrende for krigføringen, men blir satt til side, eller forsøkt programmert inn i maskiner.

Det er høyst uklart og tvilsomt om slike vurderinger lar seg programmere inn i en maskin på en meningsfull måte. Ifølge Den internasjonale Røde Kors-komiteen, krever krigens folkerett kontekstavhengige vurderinger som ikke kan reduseres til tall eller matematiske formler. Det samme gjelder etiske vurderinger.

Et KI-styrt F-16-fly manøvrerer tett mot et bemannet F-16 over Edwards-basen i California.

Lavender og Maven

De to mest urovekkende KI-systemene er de for målutvelgelse og autonome våpen. KI til målutvelgelse er systemer trent opp og programmert til å sette sammen ulike typer data, som videoovervåkning, avlyttet kommunikasjon og GPS-data, for å identifisere mulige angrepsmål. Systemene er med andre ord med på å avgjøre hva og hvem som skal angripes.

Israel har brukt KI-systemene Lavender og Habsora til målutvelgelse i Palestina. Offiserer skal godkjenne målene, men rapporter tyder på at gjennomgangen ofte har vært overflatisk på grunn av tidspress. Uten grundig verifisering kan slike systemer føre til brudd på folkeretten og flere sivile tap.

I Iran bruker USA KI-systemene Maven og Claude til målutvelgelse og målprioritering. Det er uklart hvilken rolle disse systemene har spilt i angrep som har medført sivile tap. 

Les også på Altinget: Vil ha offentlig statistikk over PSTs bruk av kontroversiell metode: – Kan bli aktuelt igjen

Autonome våpen tar det neste og siste skrittet i det som ofte blir kalt drapskjeden (kill chain). Det er ikke lenger bare snakk om å velge ut mål, men også om å angripe disse uten menneskelig kontroll.

Autonome våpen er ikke science fiction. De finnes i dag, og avhengig av hvilken definisjon man bruker, har de eksistert ganske lenge.

Det som derimot er nytt, er offensive autonome våpen som også kan angripe mennesker. Ifølge en ekspertrapport fra FN kan autonome våpen potensielt ha blitt brukt mot mennesker allerede i 2020 under borgerkrigen i Libya. De er rapportert brukt i Ukraina-krigen. Flere land utvikler dem.

Det haster

Det er ikke lenger et spørsmål om regulering av fremtidens krigføring, men hva som skjer her og nå. Røde Kors mener det haster å få på plass internasjonale regler for å sikre menneskelig kontroll over beslutninger om liv og død.

Det finnes minst tre gode grunner til å regulere. Den første er praktisk: dagens KI-systemer er rett og slett upålitelige, særlig i uoversiktlige situasjoner med mangelfulle data – en tilstand som kjennetegner krig. Det var dette sjefen i Anthropic, Dario Amodei, pekte på i tvisten med Krigsdepartementet: KI-systemene er «simpelthen ikke pålitelige nok» og kan ikke stoles på til å «utøve den kritiske dømmekraften som våre høytrente, profesjonelle tropper utøver hver dag».

Den andre grunnen er juridisk: krigens folkerett krever kontekstavhengige vurderinger som maskiner i dag – og kanskje heller ikke i overskuelig fremtid – vil kunne gjøre.

Den tredje er etisk: å overlate makt over liv og død til maskiner utfordrer helt grunnleggende moralske og humanitære verdier. 

Det trengs prinsipielt begrunnede felles regler for bruk av KI og autonome våpen i krig. 

Forhandlinger og retningslinjer

For autonome våpen er FN-forhandlingene i Genève de viktigste. Det er bred enighet blant statene om mulige regler, slik som begrensninger på bruksområde og typer mål, samt krav om deaktiveringsmekanismer.

Neste forhandlingsmøte er i september. Prosessen krever konsensus, noe som fort kan føre til stillstand. Men et flertall av verdens land ønsker bindende regler, og kan velge å samles i en annen arena om nødvendig.

KI i målutvelgelse er derimot ikke del av Genève-forhandlingene, men ansvarlig bruk av kunstig intelligens i militæret blir diskutert i flere internasjonale fora. I Norge skal Forsvaret utvikle etiske retningslinjer for KI-bruk. Generalmajor Halvor Johansen, sjef i Cyberforsvaret, forklarer hvorfor etiske retningslinjer er svært viktig å få på plass:

– KI forstår ikke kontekst, politiske konsekvenser, tyngden av beslutninger eller proporsjonalitet.

Anthropic trykket på bremsene da de mente det var fare for at Krigsdepartementet ville gå for langt i bruken av teknologien deres. Men kravene til Anthropic setter en altfor lav standard. Vi kan ikke være avhengige av private KI-selskaper sine tøyelige grenser.

Det trengs prinsipielt begrunnede felles regler for bruk av KI og autonome våpen i krig. Uten dem vil humanitærrettslige og etiske hensyn bli satt til side i et farlig militærteknologisk kappløp. 

Les også på Altinget: Grams baby er i spill. Regjeringen kan bli angrepet fra flere hold

Stemmer er ABC Nyheters debattseksjon. Dette er meningsytringer, og innholdet står for skribentens regning. Ønsker du å bidra? Send kronikk eller debattinnlegg til stemmer@abcnyheter.no.