Et etisk brudd mellom det amerikanske forsvarsdepartementet (DoD) og AI-selskapet Anthropic har endt med at Anthropic er utestengt fra forsvarskontraktsmarkedet – og at OpenAI har rykket inn som erstatter, ifølge TechCrunch.

Hva ble de uenige om?

Konflikten dreier seg om i hvilken grad militæret skal ha kontroll over kommersielle AI-modeller. Forsvarsdepartementet krever ifølge research-kilden at selskaper som inngår kontrakter med DoD, gir regjeringen en «ugjenkallelig lisens» til å bruke modellene til alle lovlige formål – uten forbehold.

For Anthropic var det to punkter som var absolutt ufravikelige: masseover­våking av amerikanske borgere og fullt autonome våpensystemer. Selskapets grunnlegger og CEO Dario Amodei uttalte at selskapet «ikke med god samvittighet kan etterkomme» Pentagons krav.

«Vi kan ikke med god samvittighet etterkomme» Pentagons krav, sier Anthropic-sjef Dario Amodei.

Resultatet ble at Pentagon formelt klassifiserte Anthropic som en «forsyningskjedesvikt» – en betegnelse som i praksis stenger selskapet ute fra forsvarskontrakter.

Pentagon stempler Anthropic som sikkerhetsrisiko etter krangel om droner og overvåking

To selskaper, to valg

Der Anthropic trakk seg, gikk OpenAI inn. Selskapet aksepterte kontrakten på 200 millioner dollar som Anthropic avslo. Responsen fra brukerne var umiddelbar og brutal: antall avinstalleringer av ChatGPT økte med 295 prosent.

200 mill. USD
Kontraktsverdi Pentagon tilbød
295 %
Økning i ChatGPT-avinstalleringer etter OpenAIs signering

De to selskapene representerer dermed to svært ulike strategier for å håndtere statlige kontrakter: Anthropic prioriterer sine egne etiske grenser, mens OpenAI aksepterer vilkårene og tar den kommersielle gevinsten – til en åpenbar omdømmekostnad.

Pentagon stempler Anthropic som sikkerhetsrisiko etter krangel om droner og overvåking

Pentagons og Anthropics etiske rammeverk er fundamentalt forskjellige

Anthropics tilnærming er særlig kjent for sin «Constitutional AI»-metode, der modellen – Claude – opererer etter et grunnlagsdokument med klart definerte verdier og hard-kodede forbud. Ifølge research-kilden inkluderer disse forbudene bistand til masseødeleggelsesvåpen og forsøk på å gripe ulovlig makt.

I februar 2026 oppdaterte Anthropic sin Responsible Scaling Policy (RSP), men ikke uten kontrovers: selskapet fjernet et tidligere løfte om å ikke trene en AI-modell dersom man ikke på forhånd kunne garantere tilstrekkelige sikkerhetstiltak.

Hva betyr dette for AI-industrien?

Striden mellom Pentagon og Anthropic er den første store offentlige konfrontasjonen mellom en AI-aktørs etiske grenser og statens krav om ubegrenset kontroll.

Saken reiser spørsmål som vil prege bransjen i lang tid: Kan kommersielle AI-selskaper opprettholde egne etiske rammer når staten presser på? Og hvilken pris er brukerne og investorene villige til å betale for kompromisser?

Reaksjonen på OpenAIs signering – i form av masseavinstalleringer – tyder på at tillitskapitalen til AI-selskaper er tettere knyttet til etisk troverdighet enn mange kanskje hadde trodd. Anthropic har på sin side betalt prisen i tapte kontrakter, men siterer CEO Amodeis uttalelser som en bevisst posisjonering.

Det gjenstår å se om Pentagon-modellen – der staten krever «irrevocable license» til alle lovlige formål – vil bli normen for fremtidige AI-kontrakter, eller om motstanden fra aktører som Anthropic vil tvinge frem et mer nyansert rammeverk.