Da president Donald Trump 27. februar 2026 signerte en ordre om å stenge Anthropics AI-teknologi ute fra hele den føderale statsapparatet, sendte det sjokkbølger gjennom tech-bransjen. Anthropic er ikke et lite oppstartsselskap — selskapet hadde på det tidspunktet inngått kontrakter med blant annet Forsvarsdepartementet, etterretningstjenester og en rekke andre føderale etater. Nå er fremtiden for disse avtalene høyst usikker.
En blomstrende bedrift møter politisk motstand
Ifølge Stratechery opplever Anthropics virksomhet mot bedriftskunder en nær eksplosiv vekst. Denne inntektsøkningen gjør at det som tidligere var et relativt sett avgrenset samarbeid med myndighetene, nå har enorm strategisk og kommersiell betydning. Det er ikke lenger snakk om symbolske pilotprosjekter — det dreier seg om forankret infrastruktur i sensitive miljøer.
Anthropic hadde blant annet inngått en toårig prototype-avtale med Forsvarsdepartementets Chief Digital and Artificial Intelligence Office (CDAO) verdt opptil 200 millioner dollar, ifølge forskningskilder gjengitt av Stratechery. I tillegg var Claude-modellene allerede tatt i bruk i Pentagons klassifiserte nettverk gjennom et samarbeid med dataanalyseselskapet Palantir.

Stridens kjerne: Hvem bestemmer over AI-bruken?
Konflikten mellom Anthropic og Pentagon handler i bunn og grunn om hvem som har siste ord i hvordan selskapets AI-modeller kan anvendes. Forsvarsminister Pete Hegseth krevde at kontraktsvilkårene måtte tillate «enhver lovlig bruk», uten spesifikke begrensninger pålagt av selskapet selv.
Anthropic på sin side insisterte på garantier mot at Claude benyttes til masseovervåking av amerikanske borgere eller i fullt autonome våpensystemer. Administrerende direktør Dario Amodei understreket at selskapet er genuint opptatt av å bidra til amerikansk nasjonal sikkerhet, men at visse anvendelser enten ligger utenfor det etisk forsvarlige eller utenfor hva nåværende teknologi kan håndtere pålitelig nok.
«Å male en blink på Anthropic gir saftige overskrifter, men alle taper til slutt» — pensjonert general Jack Shanahan, tidligere leder for Pentagons AI-initiativ
Pensjonert Air Force-general Jack Shanahan, som ledet Pentagons AI-satsing, beskrev Anthropics «røde linjer» som rimelige, ifølge kildematerialet. Han advarte mot at konflikten vil skade alle involverte parter.

Hevnaktig, sier Anthropic
Den 27. februar 2026 utpekte forsvarsminister Hegseth formelt Anthropic som en «forsyningskjedefare for nasjonal sikkerhet». Betegnelsen er vidtrekkende: den forbyr ikke bare direkte statlige kontrakter, men hindrer også alle leverandører, underleverandører og partnere som jobber med det amerikanske militæret, fra å handle kommersielt med Anthropic.
Dario Amodei karakteriserte vedtaket som «hevnaktig og straffende» og varslet rettslige skritt mot forsyningskjede-designasjonen, ifølge samme kilde.
Egne modeller for etterretning var allerede i drift
En detalj som gjør vedtaket ekstra bemerkelsesverdig, er at Anthropic allerede hadde utviklet egne tilpassede «Claude Gov»-modeller for amerikanske nasjonale sikkerhetsaktører. Disse var ifølge kildematerialet allerede operasjonelle i klassifiserte miljøer og designet for blant annet forbedret håndtering av klassifisert informasjon, cyberoperasjoner og etterretningsanalyse.
I tillegg hadde Anthropic gjennom et samarbeid med General Services Administration (GSA) tilbudt Claude til alle tre grener av den amerikanske regjeringen for én dollar per etat per år — et tiltak for å forenkle tilgang og standardisere bruken.
Hva skjer nå?
Trump-ordren gir Forsvarsdepartementet og andre etater som allerede er inne i Anthropic-kontrakter, seks måneder til å fase ut teknologien. Øvrige etater skal slutte umiddelbart.
Stratechery peker på at den eksplosive inntektsveksten i Anthropics bedriftsmarked gjør kompromiss med myndighetene desto viktigere for selskapet. Saken er ikke bare en prinsippdebatt om AI-sikkerhet — den har direkte konsekvenser for et selskap i rask vekst og for en nasjonal sikkerhetsinfrastruktur som allerede er blitt avhengig av Claudes kapabiliteter.
Søksmålet Amodei varslet vil sannsynligvis bli en viktig test på grensene for statens makt til å utpeke private AI-selskaper som sikkerhetsrisikoer — og for hva teknologiselskaper kan kreve i forhandlinger med sine største offentlige kunder.
