Konfrontasjon på høyeste nivå

Amerikas forsvarsminister Pete Hegseth har innkalt Anthropic-gründer og toppsjef Dario Amodei til et møte i Pentagon. Temaet er militærets bruk av AI-modellen Claude, og atmosfæren beskrives som spent. Ifølge TechCrunch har Hegseth gått så langt som å true med å stemple Anthropic som en «risiko i forsyningskjeden» – en betegnelse som kan få store konsekvenser for selskapets muligheter til å jobbe med amerikanske myndigheter.

Konflikten handler i kjernen om et grunnleggende motsetningsforhold: Anthropic har bygget selskapet sitt rundt strenge etiske retningslinjer for AI-bruk, mens Pentagon ønsker mer fleksible vilkår for militære formål.

Venezuela-operasjonen som utløste krisen

Saken fikk fart etter at Wall Street Journal i februar 2026 rapporterte at det amerikanske militæret skal ha benyttet Claude under en operasjon med mål om å pågripe tidligere venezuelansk president Nicolás Maduro. Forbindelsen gikk angivelig gjennom Anthropics partnerskap med dataanalysefirmaet Palantir Technologies.

Anthropic selv avviste at selskapet hadde vært involvert i planleggingen av «spesifikke operasjoner» med Forsvarsdepartementet. Selskapet bekreftet imidlertid at bruksavtalen med Pentagon for øyeblikket er til gjennomgang – særlig bestemmelsene om autonome våpensystemer og innenlands masseovervåkning.

Ingen aktør bør få lov til å diktere retningslinjer som går utover det Kongressen har vedtatt.

Dette er ifølge TechCrunch ordene fra Pentagons teknologisjef, og de illustrerer hvor alvorlig konflikten er blitt.

Pentagon stevner Anthropic-sjef til møte – truer med å stenge selskapet ute

Hva sier Anthropics egne regler?

Anthropic er i en uvanlig posisjon blant store AI-selskaper: de har eksplisitte «røde linjer» nedfelt i sine bruksvilkår som forbyr en rekke militære og overvåkingsrelaterte anvendelser av Claude.

Selskapet opererer som et såkalt «public benefit corporation» – en selskapsform som forplikter dem til å ta hensyn til allmennhetens beste, ikke bare aksjonærenes. Rammeverket «Constitutional AI» er en sentral del av dette: Claude er trent opp mot et sett med etiske prinsipper hentet fra blant annet FNs menneskerettighetserklæring.

Pentagon stevner Anthropic-sjef til møte – truer med å stenge selskapet ute

Kontrakter på spill

Sommeren 2025 ble Anthropic, Google, OpenAI og xAI alle tildelt forsvarskontrakter verdt opptil 200 millioner dollar hver for å tilpasse generative AI-løsninger til militært bruk. Nå kan Anthropics del av disse kontraktene stå i fare.

$200M
Anthropics forsvarskontrakt (maks)
2025
Kontraktsinngåelse

Pentagons teknologisjef har vært tydelig på at selskaper ikke kan sette egne betingelser som overstyrer kongressens vedtak. Dette setter Anthropic i en klemme: å gi etter for presset vil undergrave selskapets kjerneprofil som ansvarlig AI-utvikler, men å stå fast kan koste dem betydelige inntekter og innflytelse.

Et selskap bygget på sikkerhet

Anthropic er det eneste store AI-selskapet som har nedfelt militærforbud direkte i sine produktvilkår.

Anthropic har investert tungt i å bygge et rykte for sikkerhet og ansvarlighet. I januar 2025 ble selskapet sertifisert etter den internasjonale standarden ISO/IEC 42001:2023 for AI-styringssystemer. De har også en «Responsible Scaling Policy» med klare terskler for når modellutvikling må stanses dersom sikkerhetsrisikoen vurderes som for høy.

Dario Amodei har selv advart offentlig mot at AI kan «kontinuerlig senke terskelen for destruktiv aktivitet», og har argumentert for at AI-sikkerhet og høy ytelse ikke er motsetninger.

Møtet mellom Amodei og Hegseth vil trolig bli avgjørende for om Anthropic klarer å navigere mellom sine grunnleggende etiske forpliktelser og presset fra verdens mektigste militærapparat.