I 2016 lyktes det for første gang en AI-computer å nedkjempe en menneskelig kampflypilot i simulatorøvelser i det amerikanske flyvåpens sentrale forskningslaboratorium i Ohio.
I 2016 lyktes det for første gang en AI-computer å nedkjempe en menneskelig kampflypilot i simulatorøvelser i det amerikanske flyvåpens sentrale forskningslaboratorium i Ohio. (Foto: University of Cincinnati)

– En enkelt programmerer vil kunne forårsake skader som tidligere krevde en hel hær

Blir kunstig intelligens et masseødeleggelsesvåpen?

  • Forsvar

Forskere advarer om at kamproboter med kunstig intelligens vil oppskalere krig til et hittil usett omfang. Men det blir feil å kategorisere autonome våpen som masseødeleggelsesvåpen, sier forfatteren til den første danske rapporten om fenomenet.

– Det spørsmålet som vi må stille oss selv, er: Hvilke skritt kan vi ta for å forhindre en militær konkurranse, der utfallet blir katastrofalt for alle parter?

Slik lød advarselen mot en fryktinngytende ny våpenteknologi i et historisk manifest, hvor de som skrev under besto av noen av de mest anerkjente forskerne innen utviklingen av den samme teknologien. Den gangen, i juli 1955, handlet advarselen om den kjernefysiske bomben i et manifest fra 11 vitenskapsmenn, anført av Bertrand Russell og Albert Einstein.

Seks tiår senere kommer det en advarsel om en ny våpenteknologi som er i rask utvikling, og som ikke er veldig annerledes.

– Det avgjørende spørsmålet for menneskeheten er i dag hvorvidt man skal innlede eller forhindre et globalt AI-våpenkappløp. Hvis en gitt stor militærmakt setter fart på utviklingen av våpen med kunstig intelligens, er et globalt våpenkappløp stort sett uunngåelig.

Advarselen mot å bruke kunstig intelligens til militære formål, er formulert i et åpent brev til FN fra 2015, og underskriverne omfatter nok engang forskere innen den samme teknologien. Nærmere bestemt 3963 forskere innenfor roboter og kunstig intelligens, foruten 22.396 medunderskrivere som omfatter prominente navn som Stephen Hawking, Elon Musk, Apples Steve Wozniak og professor Noam Chomsky.

Krig i et hittil usett omfang

Og spør man en av spesialistene bak advarselen fra 2015, må autonome våpen, akkurat som atombomben, kategoriseres som et masseødeleggelsesvåpen. Han heter Toby Walsh, og er professor i kunstig intelligens ved New South Wales University og formann i organisasjonen AI Access Foundation, som har til formål å spre forskningsresultater innen kunstig intelligens.

– Verdenssamfunnet bør betrakte autonome våpen som masseødeleggelsesvåpen, og ikke minst legge dem til i listen over slike. For en enkelt programmerer vil kunne forvolde skader som tidligere krevde en hel hær. Krig blir oppskalert i et hittil usett omfang, uttalte Toby Walsh for få dager siden til danske Ingeniøren i en artikkel om regulering av autonome våpen.

Tre eksempler på autonome våpen

Aegis Combat System

Foto: US Navy

Kampsystemet Aegis, som utgjør it-ryggraden i NATOs ballistiske missilforsvar, kan selv identifisere og skyte ned fiendtlige ballistiske missiler. Når Aegis er koblet sammen med et Phalanx-nærforsvarssystem med maskinkanon, kan det også skyte ned fiendtlige fly. Den menneskelige operatøren kan i utgangspunktet underkjenne systemets beslutning om å angripe, men Aegis kan også fungere i casualty-modus, hvor det antar at operatøren er forhindret i å betjene systemet, og derfor selv foretar en beslutning om å skyte.

SGR-A1

SGR-A1 Foto: Samsung

Sørkoreanske Samsungs intelligente vakttårn SGR-A1 bevokter i dag den demilitariserte sonen mellom Nord- og Sør-Korea. SGR-A1 kan selv identifisere mål innenfor 3,2 kilometer, og kan enten reagere med en høy alarm, ikke-dødelige gummikuler, et 5,56 x 45 maskingevær eller en granatkaster. Et lignende system i form av det israelske SentryTech er plassert langs grensen til Gazastripen.

Sea Hunter

Foto: US Navy

Sea Hunter fra Pentagons utviklingsenhet Darpa er utviklet til autonom ubåtjakt og elektronisk krigføring. Det ubemannede skipet skanner havet under seg, og finner den et mål, kan den selv finne fiendens mest sårbare punkter og innlede et angrep. Men systemet kan ikke foreta angrep uten grønt lys fra et menneske. Sea Hunter har nettopp avsluttet en toårig testrunde, og er i utgangspunktet klar til operativ tjeneste.

Han er også en av de 50 forskerne bak den boikotten som i forrige uke fikk det sørkoreanske universitet KAIST til å avslutte et samarbeid med den sørkoreanske våpenprodusenten Hanwha Systems, om et laboratorium for utvikling av autonome våpen optimert med kunstig intelligens.

Ikke masseødeleggelses-våpen

Spør man derimot forfatteren av den første danske vitenskapelige rapporten om autonome våpen, treffer Toby Walshs og andre bekymrede fagfolks bestrebelser for å få kategorisert autonome våpen som masseødeleggelsesvåpen utenfor blink.

– Problemet er at disse systemene slett ikke er masseødeleggelsesvåpen, sier seniorforsker Gary Schaub ved Center for Militære Studier på Københavns Universitet. Han offentliggjorde i 2016 en rapport om behovet for retningslinjer for bruken av autonome våpen.

– Masseødeleggelsesvåpen er per definisjon ikke diskriminerende i sine ødeleggelser. Det er denne masseødeleggelsen som gjør dem unike. Autonome våpen er ikke udiskriminerende. De autonome våpnene som blir utviklet i nær framtid, vil være akkurat som de konvensjonelle våpnene som brukes i dag – stridsvogner, kampfly, missiler, fregatter og ubåter – bare med en maskin som beslutningstaker, og som erstatter et menneske, sier Gay Schaub.

Men han vurderer – akkurat som en rekke andre forskere som danske Ingeniøren har snakket med i forbindelse med dette – at det er nødvendig å sette opp retningslinjer for hvordan den menneskelige kontrollen med autonome våpensystemer skal foregå.

Når det i FN gjennomføres offisielle diskusjoner om mulige restriksjoner for autonome våpensystemer, slik det skjedde i Genève i forrige uke, skjer det inntil videre med utgangspunkt i at autonome våpensystemer ikke er masseødeleggelsesvåpen, og med formål om en mulig oppdatering av FNs konvensjon om spesielt konvensjonelle våpen. Den har til formål å forby eller begrense bruken av våpen som anses for å være unødig skadevoldende eller for å ramme vilkårlig, slik som landminer, minefeller, brannvåpen og blindende laservåpen, mens listen over masseødeleggelsesvåpen i dag bare omfatter kjemiske, biologiske, radioaktive og nukleære våpen.

Er slett ikke våpen

Arbeidet med å sette opp juridiske rammer for autonome våpensystemer blir gjort vanskeligere av at selve våpendelen av systemene neppe kommer til å skille seg fra konvensjonelle våpentyper som missiler og prosjektiler.

En forskningsartikkel publisert i ICRCs internasjonale forskningstidsskrift i 2012 konkluderte på bakgrunn av dette med at autonome våpensystemer ikke er våpen, men at de bare er kjennetegnet av en spesiell bruk av konvensjonelle våpen. Forfatteren til rapporten, Hin-Yan Liu, er i dag professor ved Juridisk Institut på Københavns Universitet.

– Den avgjørende forskjellen på autonome våpensystemer og andre våpen, er at autonome våpensystemer ikke er våpen. Våpen er redskaper for å utføre vold, og som krever en operatør. Det problematiske ved autonome våpensystemer er derfor ikke selve våpenet, men den operatøren som betjener det. Dette blir innlysende når man tar i betraktning at autonome våpensystemer med all sannsynlighet kommer til å benytte seg av eksisterende, konvensjonelle våpentyper, sier Hin-Yan Liu.

Fullt autonome våpensystemer, som selv velger ut og angriper målene sine, er ennå ikke tatt i bruk noe sted i verden. I Danmark (og Norge, overs. anm.) benytter Forsvaret i dag delvis autonome våpen i form av såkalte fire and forget-missiler, som etter avfyring selv kan finne fram til målene sine.

Forrige ukes diskusjoner i FN bestod av det andre møtet i en mellomstatlig ekspertgruppe med regjeringsrepresentanter, som FN besluttet å opprette i 2016. Den skal diskutere både de teknologiske, militære, juridiske og etiske implikasjonene ved å utvikle autonome våpen. Den såkalte Group of Governmental Experts on Lethal Autonomous Weapons Systems fortsetter diskusjonene ved sitt neste møte i august i år.

Artikkelen ble først publisert på Ingeniøren.dk

Kommentarer (22)

Kommentarer (22)