Meninger

LIBANON: En ambulanse bringer sårede mennesker til det amerikanske sykehuset i Beirut etter at personsøker-angrepet 17. september.

Personsøkere som eksploderer – hva kan dette si oss om autonome drapsroboter?

Drap og lemlestelse på tusenvis av mennesker utløst av et tastetrykk langt unna, uten risiko for tap av egne soldater, og med ukjent avsender. 

Publisert

Dette er et debattinnlegg. Innlegget gir uttrykk for skribentens meninger. Send inn kronikker og debattinnlegg til Forsvarets forum her.

Angrepet i Libanon har skumle likheter med skrekk-scenarioene vi ser for oss for utviklingen av stadig mer autonome våpen. Før vi får autonome drapsroboter i fanget, bør vi spørre oss om vi er rustet for enda mer effektive drapsverktøy enn eksploderende personsøkere.

I etterkant av det koordinerte angrepet hvor personsøkere og håndholdte radioer eksploderte i hendene og lommene på folk, på stuebord, markeder, kontorer og hvor de enn befant seg, har mange spurt seg hva slags våpentype dette egentlig er – og om lovligheten av et slikt angrep. 

Begge spørsmålene er betimelige, men det er også verdt å spørre seg hva dette har å si for framtidens kriger. 

Massedrap ved hjelp av et tastetrykk

Da ordren om å utføre operasjonen ble gitt, var det umulig å vite nøyaktig hvor og mot hvem eksplosjonene ville påføre død og skade. 

Angrepet ble legitimert i antakelsen om at de som hadde en personsøker eller radio i nærheten, var militære mål grunnet sin tilknytning til Hezbollah, som Israel er i en ikke-statlig væpnet konflikt med. 

De juridiske tolkningene av angrepets lovlighet spriker, men de fleste er enige om at lovligheten i beste fall er tvilsom. Komplekse angrep utført fra avstand, hvor målet blir definert ut fra tilknytningen til et objekt som også andre kan bære, og hvor antall sivile i nærheten av objektet ikke er kjent, utfordrer kravene krigens folkerett stiller om tilstrekkelig oversikt over konteksten og det potensielle skadeomfanget.

Når vi vet at autonom våpenteknologi vil anvendes stadig mer i en nær framtid, bør vi være svært bekymret for hvordan visse stater allerede tøyer sine folkerettslige forpliktelser. Autonome våpen kan bli verktøy som kan forvolde enorm skade på svært kort tid. 

Ørsmå, autonome angrepsdroner kan for eksempel operere i svermer og bære mikroladninger med sprengstoff mens det egenhendig leter etter indikatorer som for maskinene skal representere mennesker – for deretter å utføre et automatisert angrep. 

FNs generalsekretær har kalt utviklingen av maskiner som kan ta liv uten menneskelig involvering for politisk uakseptabelt og moralsk forkastelig, og noe som må forbys under internasjonal lov. 

Autonomi og merkelapper – mennesker trenger ikke hjelp av drapsroboter

Autonome våpensystemer er på full fart inn i den moderne krigføringen. Det spesielle med slike systemer er at de bruker sensorer for å forstå omgivelsene og velger ut og angriper mål på bakgrunn av målprofiler. Disse vil alltid være en forenkling av virkeligheten. 

Etter å ha blitt satt i gang av et menneske, mister menneskene oversikt og mulighet til å påvirke maktanvendelsen i den perioden systemet opererer. Vi lar algoritmene avgjøre hvem som skal leve og hvem som må dø.

Maskiner har ingen intuitiv forståelse for hva et barn er, hva en stein er, eller om et barn og en stein har ulik iboende verdi. Autonome våpen vil handle ut ifra en maskinlogikk - med null intuisjon om hva som er rett og galt. 

Er vi klare for autonome våpen i en verden der viljen og evnen til massedrap med et tastetrykk allerede er en mulighet?

Selv om små sprengladninger i personsøkere er langt unna å bli definert som autonome våpen, har de flere fellesnevnere med negativt fortegn: mennesker blir militære mål basert på en antakelse som kan være feil, maktutøvelsen skjer over stor avstand, og med begrenset kontroll over omgivelsene, uten risiko for egne soldater og med uklar avsender.

Maskiner bør ikke få drepe mennesker 

Norsk Folkehjelp er del av en stor internasjonal bevegelse som jobber for å få regulert autonome våpen gjennom to spor: noen autonome våpensystemer må forbys, andre reguleres. Vi er særlig bekymret for maktbruk mot enkeltindivider med autonome våpen, og mener det trengs et konkret forbud mot å angripe mennesker med autonome våpen. 

Å la autonome systemer peke ut mennesker som mål, er å redusere mennesker til datapunkter som det tas en avgjørelse om liv eller død på. Det overskrider en moralsk grense. I tillegg er det noen grunnleggende juridiske vanskeligheter med å prøve å la maskiner definere hvem som er lovlig mål, og hvem som skal beskyttes i krig.

Utviklingen av autonome våpensystemer går lynraskt. Vi er bekymret for en framtid der drap, destabilisering og voldseskalering muliggjøres av autonome våpensystemer som opererer uten meningsfull menneskelig kontroll. 

Bare fantasien setter grenser for hvor omfattende og grusomme fremtidens kriger kan bli, dersom dette blir en realitet. 

Stater må ta disse utfordringene på alvor, og så snart som mulig sette i gang forhandlinger for å få regulert autonome våpen. Vi forventer at Norge tar ansvar og er tydelige i sin motstand mot drap på mennesker utført av autonome våpen, og pådriver for en sterk internasjonal regulering. Den pågående generalforsamlingen i FN i New York er Norges neste sjanse til å ta nødvendige initiativ og være i fremste rekke i disse diskusjonene.

Powered by Labrador CMS