En tråd på r/singularity eksploderer akkurat nå, og det er ikke uten grunn. I et intervju med CBS bekreftet Anthropic-sjef Dario Amodei noe mange har mistenkt lenge: forsvaret bruker ikke den samme Claude som du og jeg chatter med. Den militære versjonen er ifølge Amodei selv én til to generasjoner foran det som er tilgjengelig for offentligheten, og har allerede «revolusjonert og radikalt akselerert» hva det amerikanske militæret kan gjøre. Han la til at dette bare er starten på hva de har rullet ut.
Det er ganske mye å ta inn over seg.
Men det stopper ikke der. Historien har allerede rukket å ta en dramatisk vending. Anthropic fikk en $200 millioner-kontrakt med Pentagon i juli 2025, og Claude er visstnok den eneste AI-modellen som er godkjent for klassifiserte DoD-systemer på høyeste nivå (Impact Level 6). Så langt, så greit.
Problemet er at Pentagon ville ha mer. Forsvarsdepartementet presset på for å fjerne Anthropics to ikke-forhandlbare etikklinjer: ingen fullt autonome våpen, ingen masseovervåking av egne innbyggere. Da Anthropic nektet å gi etter, satte forsvarsminister Pete Hegseth en hard deadline — 27. februar 2026. Da fristen passerte uten at Anthropic bøyde av, ble selskapet dagen etter offisielt utpekt som en «supply chain risk to national security». Det betyr i praksis at militærentreprenører er forbudt fra kommersiell aktivitet med Anthropic.
Amodei har kalt dette «retaliatory and punitive» — altså hevnaktig og straff. Og det er vanskelig å ikke se poenget hans.
Dette er interessant av flere grunner. For det første bekrefter det at det allerede eksisterer et reelt AI-kapasitetsgap mellom det militæret har tilgang til og det offentligheten ser. For det andre viser konflikten at AI-selskapenes interne etikkpolitikk nå møter direkte statsmakt — og at det er reelle konsekvenser for å stå imot. For det tredje er Anthropic-caset et tidlig eksempel på hva som kan bli en mye større debatt: Hvem bestemmer egentlig hva AI-modeller kan brukes til når nasjonal sikkerhet er på bordet?
Husk at dette er early signals fra community-diskusjoner og foreløpige rapporter — men signalene peker i én klar retning: kampen om kontroll over militær AI er ikke lenger teoretisk. Den pågår nå.
