Et paradoks av sjeldent slag utspiller seg i Washington: Mens Forsvarsdepartementet har slått hardt ned på AI-selskapet Anthropic og erklært det som en risiko for nasjonal sikkerhet, skal embetsmenn knyttet til Trump-administrasjonen nå aktivt oppmuntre finansinstitusjoner til å ta selskapets nye AI-modell i bruk. Det melder TechCrunch.

Pentagon sa nei — finanssektoren får grønt lys?

Tilsynelatende uten koordinering internt i administrasjonen skal Trump-kretsen ha oppmuntret banker til å teste Anthropics Mythos-modell. Dette skjer i direkte motstrid til Forsvarsdepartementets offisielle holdning, ifølge TechCrunch.

DoD klassifiserte nylig Anthropic som en «supply chain risk to national security» — en betegnelse som til nå utelukkende har vært brukt mot utenlandske aktører. Konsekvensene er alvorlige: Militæret forbys å bruke Anthropics AI-modeller, og forsvarsleverandører må bekrefte skriftlig at de ikke benytter selskapets teknologi i arbeid for myndighetene.

«Americas warfighters will never be held hostage by the ideological whims of Big Tech» — forsvarsminister Pete Hegseth
Trump-kretsen vil ha banker til å teste AI som Pentagon forbød

Kjernen i konflikten: Etiske grenser mot militær bruk

Årsaken til den dramatiske klassifiseringen er ikke teknologifeil eller sikkerhetshull i tradisjonell forstand. Det dreier seg om en prinsipiell uenighet: Anthropic nektet å gi Pentagon tilgang til Claude-modellen uten begrensninger mot bruk til masseovervåking av sivile og fullt autonome våpensystemer som velger og angriper mål uten menneskelig kontroll.

Pentagon krevde på sin side rett til å bruke teknologien til «alle lovlige formål». Forsvarsminister Pete Hegseth hevdet at Anthropic forsøkte å «tvinge det amerikanske militæret i kne».

Anthropics toppsjef Dario Amodei avviser dette bildet. Han understreker at selskapets bekymringer handler om overordnede bruksområder — ikke daglig operativ beslutningstaking — og at AI-systemer ikke er ufeilbarlige nok til å overlates full autonomi.

Anthropics egne jurister har kalt DoD-beslutningen «juridisk uholdbar» og varslet rettslig kamp, og hevder at den setter «et farlig presedens for ethvert amerikansk selskap som forhandler med myndighetene».

Trump-kretsen vil ha banker til å teste AI som Pentagon forbød

Kaotisk signal til finanssektoren

Den tilsynelatende mangelen på koordinering internt i Washington sender forvirrende signaler — ikke minst til aktører i finanssektoren som skal forholde seg til leverandørrisiko og regulatoriske forventninger.

Samme administrasjon sender to stikk motsatte signaler om samme AI-selskap.

Banker og finansinstitusjoner er generelt underlagt strenge krav til leverandørkontroll. I Europa og Norge stilles det blant annet krav gjennom DORA-regelverket (Digital Operational Resilience Act) om at finansforetak skal vurdere risikoen ved tredjepartsleverandører av kritisk teknologi — inkludert AI. At et selskaps teknologi er klassifisert som nasjonal sikkerhetsrisiko av ett arm av en regjering, mens et annet arm anbefaler det, er et scenario som ikke har noen etablert håndteringsprotokoll.

Anthropics infrastruktur og ekspansjon

Til tross for konflikten med Pentagon er Anthropic en kapitalsterk aktør i rask vekst. Selskapet bruker i dag prosessorkraft fra Google (TPU-er), Amazon (Trainium og Inferentia) og Nvidia (GPU-er). Ifølge tilgjengelig informasjon inngikk Anthropic nylig et langsiktig samarbeid med Google og Broadcom om spesialisert AI-maskinvare, med planer om å installere 3,5 gigawatt med beregningskapasitet i datasenter i New York og Texas.

Totale investeringer i amerikansk beregningsinfrastruktur anslås til rundt 50 milliarder dollar. Selskapet vurderer også å designe egne prosessorbrikker for å redusere ekstern avhengighet.

3,5 GW
Planlagt beregningskapasitet
$50 mrd
Anslåtte infrastrukturinvesteringer

Norske banker bør følge med

For norske og nordiske finansinstitusjoner er saken mer enn et amerikansk interndrama. Valg av AI-leverandør er i dag et strategisk og regulatorisk spørsmål. Situasjonen rundt Anthropic illustrerer at selv veletablerte, privatfinansierte AI-selskaper kan bli gjenstand for politisk press som direkte påvirker hvilke bruksvilkår man kan stole på over tid — og at leverandørrisiko ikke bare handler om teknisk pålitelighet, men om selskapenes politiske posisjon i sine hjemmarkeder.

Kilden til denne artikkelen er TechCrunch (12. april 2026), samt tilleggsinformasjon om DoD-klassifiseringen og Anthropics infrastruktur fra åpne kilder.