Konflikten mellom AI-selskapet Anthropic og det amerikanske forsvarsdepartementet (DoD) handler ikke bare om én kontrakt. Den er i ferd med å bli en prøvestein for hele spørsmålet om hvem som bestemmer over militær kunstig intelligens — teknologiselskapene som bygger den, eller myndighetene som vil bruke den.
Kjernen i uenigheten
Anthropics AI-assistent Claude er i søkelyset etter at selskapet krevde kontraktsklausuler som forbyr bruken av modellen i to konkrete scenarioer: masseovervåking av amerikanske borgere og autonome våpensystemer som mangler det selskapet kaller «kontekstpassende menneskelig vurdering og kontroll».
Pentagon på sin side avviser kravene som altfor inngripende. Forsvarsdepartementet argumenterer med at slike betingelser griper inn i operasjonelle realiteter og juridiske kompleksiteter knyttet til militære oppdrag, ifølge TechCrunch.
«Frontier AI-systemer er rett og slett ikke pålitelege nok til å drive fullt autonome våpen» — Dario Amodei, Anthropic-sjef

Hva sier Pentagon?
Forsvarsdepartementet understreker at det allerede eksisterer juridiske og politiske rammer som forbyr nettopp de tingene Anthropic er bekymret for. Pentagon-talsmann Sean Parnell har ifølge TechCrunch uttalt at departementet ikke har interesse av å bruke AI til masseovervåking eller til å utvikle autonome våpen som opererer uten menneskelig involvering — og at dette allerede er forbudt i lov og interne retningslinjer.
DoD-direktiv 3000.09, sist oppdatert i januar 2023, regulerer autonomi i våpensystemer og definerer kategorier basert på menneskelig operatørs rolle i målutvelgelse og engasjement. Forsknings- og ingeniørsjef Emil Michael formulerte det slik: «På et nivå må man stole på at militæret gjør det rette.»

Bred støtte til Anthropic
Anthropics posisjon har fått støtte fra uventet hold. OpenAI-sjef Sam Altman har stilt seg bak synspunktet, og nær 500 ansatte i OpenAI og Google signerte et åpent brev der de støtter Anthropics krav om sterkere kontraktsfestede garantier, ifølge TechCrunchs gjennomgang av saken.
Dette er ikke et marginalstandpunkt i bransjen. Det reflekterer en voksende bekymring blant AI-utviklere for at modellene deres kan bli brukt på måter som bryter med grunnleggende etiske prinsipper.
Ekspertene: «Ansvarsgap» er det reelle problemet
Bak den kommersielle konflikten ligger dypere etiske spørsmål som filosofer og krigsrettsjurister har diskutert i årevis. Filosof Robert Sparrow har myntet begrepet «ansvarsgap» — situasjoner der autonome systemer forårsaker skade uten at det finnes identifiserbare moralske aktører å holde ansvarlig.
Kampanjen «Stop Killer Robots» peker på to sentrale risikoer: at maskiner ikke kan gjenkjenne mennesker som mennesker — det de kaller «digital avhumanisering» — og at algoritmisk bias kan forsterke eksisterende ulikheter dersom den bakes inn i våpensystemer.
Vatikanet har engasjert seg i debatten. Monsignor Pacho argumenterer for at fjerning av det menneskelige elementet fra dødelige beslutninger eliminerer «den unike menneskelige kapasiteten for moralsk vurdering» og «senker terskelen for konflikt på en farlig måte». Pave Frans har eksplisitt tatt til orde for et forbud mot autonome våpen.
USA motarbeider internasjonale reguleringer
På den internasjonale arenaen har USA inntatt en kompromissløs posisjon. I FNs konvensjon om konvensjonelle våpen (CCW), der autonome våpensystemer har vært et sentralt tema, har USA ifølge TechCrunchs kildemateriale vært «høylydt motstandere av å etablere slike tiltak, med påstand om at de er barrierer for innovasjon».
Denne motstanden mot internasjonale bindende normer gjør den interne kampen mellom teknologiselskaper og Pentagon desto viktigere: I fraværet av folkerettslige regler kan private kontraktsklausuler bli det nærmeste man kommer faktisk regulering.
Hvem bestemmer?
Striden mellom Anthropic og Pentagon er symptomatisk for et større maktspill: AI-selskapene sitter på teknologien, men statene sitter på kontraktene og den juridiske myndigheten. Ingen av partene har foreløpig gitt seg, og utfallet vil kunne sette presedens for hvordan militær AI reguleres — eller ikke reguleres — i årene som kommer.
