Forsvarsminister Pete Hegseth har sendt et klart signal til AI-selskapet Anthropic: Gi militæret uhindret tilgang til AI-teknologien, eller se kontrakten forsvinne. Ifølge TechCrunch er fristen satt til fredag 28. februar 2026 – og Anthropic har foreløpig ikke tenkt å gi etter.
En kontrakt verdt 200 millioner dollar henger i en tynn tråd
I juli 2025 fikk Anthropic tildelt en kontrakt på 200 millioner dollar med det amerikanske forsvarsdepartementet (DoD). Oppdraget var å utvikle avanserte AI-kapasiteter for å møte kritiske nasjonale sikkerhetsbehov. Selskapet fikk også en eksklusiv posisjon: Claude-modellen var den eneste store språkmodellen godkjent for bruk på DoDs hemmeligstemplede nettverk.
Nå er den posisjonen under alvorlig press.
Hegseth skal ifølge TechCrunch ha sagt direkte til Anthropics toppsjef Dario Amodei at Pentagon «ikke vil bruke AI-modeller som ikke lar deg føre krig». Forsvarsdepartementet vurderer nå å stemple Anthropic som en «risiko i forsyningskjeden» – en klassifisering som i praksis ville tvinge andre forsvarskontrakter til å kutte båndene til selskapet.

Hva nekter Anthropic å gjøre?
Anthropics sikkerhetsregler – de såkalte guardrails – er designet for å hindre at Claude-modellen brukes til å styre fullt autonome våpensystemer eller gjennomføre masseovervåking av den hjemlige befolkningen. Dette er prinsipper selskapet ikke er villig til å gi opp, selv under press fra landets øverste militære ledelse.
Dette er ikke første gang spenningen mellom kommersielle AI-selskapers etiske retningslinjer og militære bruksbehov har kommet til overflaten, men konflikten mellom Pentagon og Anthropic er trolig den mest åpne og formaliserte som har blitt kjent til nå.

Konkurrentene stiller mer fleksibelt
Mens Anthropic holder stand, ser situasjonen annerledes ut hos konkurrentene. Ifølge forskningskilder som TechCrunch støtter seg på, har både OpenAI, Google og Elon Musks xAI mottatt tilsvarende kontrakter på 200 millioner dollar – og de er tilsynelatende mer villige til å tilpasse seg Pentagons krav.
Det faktum at xAI allerede er godkjent for graderte nettverk, har ifølge TechCrunch brutt Anthropics tidligere eksklusive posisjon på dette området.
En prinsippsak med store konsekvenser
Striden handler om mer enn én enkelt kontrakt. Den eksponerer et grunnleggende spørsmål som AI-industrien ikke har funnet noe svar på: Hvem bestemmer grensene for hva kunstig intelligens kan brukes til i krigføring?
Pentagons posisjon er tydelig – militæret ønsker AI-verktøy som kan brukes til «alle lovlige formål» uten at utviklerne legger inn hindringer. Anthropic mener derimot at nettopp slike hindringer er avgjørende for ansvarlig utvikling av teknologien.
Hvordan dette ender innen fredag 28. februar vil ikke bare avgjøre skjebnen til Anthropics forsvarskontrakt – det kan også sette presedens for hvordan resten av AI-industrien forholder seg til militære kunder fremover.
Kilder: TechCrunch (24. februar 2026)
