I en tid der kunstig intelligens i stadig større grad setter sin preg på militære operasjoner, har OpenAI tatt et markant steg inn i forsvarsverden. Selskapet har inngått en avtale med det amerikanske forsvarsdepartementet (Pentagon) om å levere AI-kapasiteter til både klassifiserte og ugraderte militære systemer — en utvikling som vekker betydelig debatt.

Fra sivil til militær bruk

So sent som i januar 2026 oppdaterte OpenAI sine brukerretningslinjer og fjernet et tidligere eksplisitt forbud mot bruk av teknologien til «militære og krigsrelaterte formål». Selskapet opprettholdt likevel forbudet mot utvikling og bruk av våpen. En talsperson fra OpenAI uttalte til mediene at «nasjonale sikkerhetsformål som samsvarer med vårt oppdrag» nå er tillatt, ifølge MIT Technology Review.

I mars 2026 ble det klart at OpenAI har inngått et formelt partnerskap med Amazon Web Services (AWS) for å levere AI-modeller til amerikanske forsvars- og myndighetsetater. Dette markerer selskapets første steg inn i klassifisert militært arbeid.

En menneske er fortsatt i beslutningssløyfen, men AI gjør arbeidet som tidligere tok dager med analyse — i en skala ingen tidligere kampanje har matchet.
OpenAI inn i Pentagons hemmelige nettverk — kan brukes mot Iran

Anthropics exit åpnet døren for OpenAI

Bakgrunnen for avtalen er delvis en konflikt mellom Pentagon og AI-selskapet Anthropic. Militæret hadde brukt Anthropics modell Claude til oppgaver som målidentifisering, etterretningsvurderinger og simulering av slagmarkscenarier i planleggingen av luftangrep mot Iran — dette ifølge informasjon gjengitt av MIT Technology Review med henvisning til amerikanske medier.

Da Anthropic nektet å tillate ubegrenset militær bruk av sin AI — særlig knyttet til masseovervåkning og autonome våpensystemer — skal Pentagon ha stemplet selskapet som en «forsyningskjedeisiko» og avsluttet kontrakten. OpenAI ble deretter en av aktørene Pentagon vendte seg mot.

Det er viktig å understreke at de konkrete detaljene rundt Anthropics kontrakt og de spesifikke operasjonene ikke er offisielt bekreftet av Pentagon eller Anthropic, og må behandles med kildekritisk forsiktighet.

OpenAI inn i Pentagons hemmelige nettverk — kan brukes mot Iran

Hva kan teknologien faktisk brukes til?

OpenAI presiserer at modellene vil kjøre på skybaserte servere kontrollert av selskapet selv — ikke direkte integrert i våpensystemer eller militært utstyr. Dette beskrives som et sikkerhetstiltak mot fullt autonome våpen.

Basert på kjente bruksområder for lignende AI-systemer i militære sammenhenger, peker eksperter på en rekke potensielle anvendelser: analyse av store datamengder for å identifisere og prioritere mål, etterretningsvurdering og operasjonsplanlegging, simulering av slagmarkscenarier, cybersikkerhet og drone-forsvarsteknologi.

Aaron McLean, nasjonal sikkerhetsanalytiker for CBS News, beskriver situasjonen slik: «Det finnes nå langt mer data enn noe rom med analytikere kunne prosessere innenfor relevante tidsrammer. AI-algoritmer siler gjennom det for å bygge målpakker, tildele strikemidler og vurdere skade — nesten umiddelbart.»

Kunstig intelligens kan nå gjøre på sekunder det militære analytikere tidligere brukte dager på

Dual-use-problemet

Forskere og eksperter understreker at kommersielle AI-verktøy er såkalte «dual-use»-teknologier — altså teknologi som kan brukes både til sivile og militære formål. Steve Feldstein, seniorforsker ved Carnegie Endowment for International Peace, peker på at slike verktøy har «etterretnings- og overvåkningsformål, og potensielt også formål knyttet til dødelige operasjoner», ifølge MIT Technology Review.

Dette reiser grunnleggende spørsmål om i hvilken grad private AI-selskaper bør ha makt til å definere grensene for bruk av teknologien i krigssituasjoner — og om selskapenes egne «røde linjer» er tilstrekkelige garantier.

Per nå er det lite offentlig tilgjengelig informasjon om nøyaktig hvordan og i hvilke operasjoner OpenAIs teknologi faktisk vil bli brukt. Avtalen er kontroversiell, og debatten om etikk og ansvar i militær AI-bruk er langt fra avklart.