USAs forsvarsdepartement kunngjorde fredag 1. mai at syv av verdens ledende teknologiselskaper nå har fått tilgang til å levere AI-verktøy inn i klassifiserte militære nettverk. Avtalene markerer en ny fase i Pentagons ambisjon om å bygge det som omtales som en «AI-first fighting force» – men de tegner også opp en skarp grense mot selskapet som tidligere var enerådende leverandør i samme systemer.
Sju inn – én ut
OpenAI, Google, Microsoft, Amazon Web Services, Nvidia, Elon Musks xAI og oppstartsselskapet Reflection er alle inkludert i de nye avtalene, ifølge kunngjøringen fra Pentagon gjengitt av The Verge. Felles for dem er at de nå kan tilby AI-kapasiteter i klassifiserte sammenhenger innenfor det amerikanske forsvaret.
Anthropics Claude-modell var tidligere det eneste AI-verktøyet tilgjengelig i Pentagons klassifiserte nettverk. Den posisjonen er nå tapt.
Anthropic ble stemplet som «forsyningskjedefare» – den første gang betegnelsen er brukt mot et amerikanskregistrert selskap.
Forsyningskjedefare – en uvanlig betegnelse
Bakenfor eksklusjonen ligger en juridisk og politisk konflikt som eskalerte dramatisk gjennom vinteren og våren 2026. I mars erklærte Pentagon formelt at Anthropic utgjorde en «supply chain risk» – en betegnelse som i henhold til amerikansk lov normalt referer til risikoen for at en fremmed makt kan sabotere eller undergrave et system innenfra. Å anvende den på et hjemlig, San Francisco-basert selskap er ifølge eksperter gjengitt i research-materialet uten sidestykke.
Konflikten utsprang av et forsvarskontrakt verdt om lag 200 millioner dollar. Anthropic nektet å gi militæret ubegrenset bruksrett til sine modeller for «alle lovlige formål», og insisterte på å beholde sikkerhetsgrenser som skulle hindre bruk til masseovervåking av amerikanske borgere og til autonome våpensystemer uten menneskelig tilsyn.
President Donald Trump ga 27. februar ordre om at alle føderale etater skulle avvikle bruken av Anthropics teknologi innen seks måneder. Forsvarsminister Pete Hegseth varslet kort tid etter at ingen leverandør, underleverandør eller partner med tilknytning til det amerikanske forsvaret kunne drive kommersiell virksomhet med selskapet.
Rettslig kamp med blandet utfall
Anthropic har ikke akseptert situasjonen passivt. Selskapet gikk til sak i to føderale domstoler 9. mars 2026. Dommer Rita Lin ga selskapet et midlertidig medhold 26. mars, og bemerket at tiltakene syntes «designet for å straffe Anthropic» snarere enn å adressere en reell leverandørrisiko, ifølge research-materialet.
Likevel avviste en føderal ankedomstol Anthropics begjæring om å få opphevet betegnelsen. Retten argumenterte med at det å tvinge militæret til å fortsette samarbeidet med en «uønsket leverandør av kritiske AI-tjenester midt i en pågående militær konflikt» ikke var hensiktsmessig.
Pentagons teknologidirektør Emil Michael bekreftet fredag at Anthropic fortsatt er klassifisert som en forsyningskjedefare.
Kritikk fra eksperter
Fagmiljøene er delte i sin vurdering. Nada Sanders, professor i forsyningskjedeledelse ved Northeastern University, omtaler ifølge research-materialet betegnelsen som et «uten sidestykke»-trekk, og antyder at det kan dreie seg om et forhandlingstaktisk grep for å forskyve maktbalansen mellom Silicon Valley og Washington.
Morgan Plummer, visepresident for politikk i organisasjonen Americans for Responsible Innovation, advarer mot at beslutningen setter en «farlig presedens» som kan hemme innovasjon og skade selskapers vilje til å bygge inn sikkerhetsbegrensninger i AI-systemer.
Det er imidlertid også reist spørsmål ved Anthropics egne prinsipper. Selskapet har selv akseptert bruk av Claude-modeller til missil- og cyberforsvar, og modellene skal ha blitt benyttet i tilknytning til militære operasjoner mot Iran. Kritikere mener dette gjør selskapets etiske rammeverk inkonsekvent.
Tekniske spørsmål rundt Claude
Parallelt har det versert tekniske innvendinger mot Anthropics produkter. Cybersikkerhetseksperter, blant dem TrustedSec-sjef Dave Kennedy sitert i research-materialet, hevder at kodekvaliteten i Claude Opus-modellene har falt markant siden februar 2026, og at sikkerhetssårbarheter forekommer i over halvparten av tilfellene der modellen genererer kode. Det er verdt å merke seg at disse påstandene kommer fra et privat sikkerhetsfirma og ikke er uavhengig verifisert.
I tillegg ble kildekoden til Anthropics utviklerverktøy Claude Code ved en feil eksponert offentlig i mars 2026, noe som i følge research-materialet førte til at kompromitterte kopier ble distribuert videre.
NATO-perspektiv: Hva betyr dette for Norge?
For Norge, som NATO-alliert og tett partner med USA innen etterretning og forsvarssamarbeid, er utviklingen relevant å følge. Pentagons valg av AI-leverandører og de teknologiske standardene som legges til grunn for klassifiserte militærsystemer, vil forme hvilke verktøy og protokoller som over tid påvirker alliansens felles teknologiske infrastruktur.
Saken reiser også prinsipielle spørsmål som ikke er begrenset til det amerikanske markedet: I hvilken grad kan teknologiselskaper opprettholde selvpålagte etiske begrensninger når de leverer til militære kunder, og hva skjer når disse begrensningene kolliderer med oppdragsgiverens krav? Det er en diskusjon som berører europeiske og norske selskaper og myndigheter i like stor grad.
Pentagons kunngjøring fra fredag indikerer uansett tydelig at kappløpet om å bli foretrukket AI-leverandør til verdens mest ressurssterke militærapparat er i full gang – og at sikkerhetspolitikk og teknologiregulering i stigende grad er blitt én og samme sak.