OpenAI inn i forsvarssektoren

OpenAI har formelt inngått en avtale med det amerikanske forsvarsdepartementet gjennom datterselskapet OpenAI Public Sector LLC. Kontrakten, som TechCrunch omtaler, har en totalramme på 200 millioner dollar og er strukturert som en ett-årig "other transaction agreement" med fokus på å utvikle prototype-kapasiteter innen frontier-AI for nasjonale sikkerhetsbehov.

Kontrakten dekker bruksområder som spenner fra administrative funksjoner — som å forbedre helsetjenestetilgang for soldater og deres familier — til styrking av cyberforsvaret og effektivisering av anskaffelsesprosesser. Den estimerte fullføringsdatoen for arbeidet er satt til juli 2026, ifølge tilgjengelig kontraktsinformasjon.

$200M
Kontraktens totalramme
$2M
Obligert FoU-finansiering i inneværende budsjettår

Altman lover konkrete sikkerhetsgrenser

OpenAI-sjef Sam Altman understreker at avtalen ikke er uten begrensninger. Ifølge TechCrunch hevder han at kontrakten inneholder to kjernesikkerhetsprinsipper: et eksplisitt forbud mot bruk til innenlands masseovervåkning, og et krav om at mennesker alltid skal bære ansvaret ved bruk av voldsmakt — noe som i praksis utelukker fullt autonome våpensystemer.

Altman skal ha bekreftet at disse prinsippene er nedfelt direkte i kontraktsteksten, og at det amerikanske forsvarsdepartementet har akseptert OpenAIs egne «røde linjer» som en del av vilkårene.

OpenAI beholder kontrollen over hvilke sikkerhetsmekanismer som implementeres, i hvilke regioner modellene driftes, og for hvem de gjøres tilgjengelig.
OpenAI signerer $200M Pentagon-kontrakt med innebygde sikkerhetsgrenser

Tekniske sperrer skal hindre misbruk

I tillegg til de kontraktsfestede forbudene er det lagt inn tekniske begrensninger i selve arkitekturen for deployeringen. Modellene skal utelukkende kjøres i skymiljøer og vil ikke bli integrert i såkalte «edge»-systemer som droner eller kampfly. Dette skal hindre direkte kobling til autonome plattformer i strid.

OpenAI planlegger dessuten å plassere egne ingeniører inne i offentlige team som jobber med klassifiserte prosjekter. Hensikten er å sikre at modellene brukes i tråd med sikkerhetsprotokoller og etiske retningslinjer, hevder selskapet.

Tre lag med sperrer: kontraktsvilkår, teknisk arkitektur og innebygde OpenAI-ingeniører
OpenAI signerer $200M Pentagon-kontrakt med innebygde sikkerhetsgrenser

Anthropic-konflikten som bakteppe

Timingen for OpenAIs kunngjøring er ikke tilfeldig. Ifølge forskningsgrunnlaget har rivalen Anthropic nylig havnet i en åpen konflikt med Pentagon etter å ha nektet å oppheve sine egne restriksjoner mot bruk av Claude-modellene til masseovervåkning og autonome våpen. Resultatet skal ha blitt at Anthropic ble svartelistet fra føderale kontrakter av president Donald Trump.

Dette handlingsforløpet illustrerer det voksende spennet mellom AI-selskapenes etiske rammeverk og myndighetenes krav til fleksibilitet i nasjonal sikkerhetskontekst. OpenAI ser ut til å ha valgt en strategi der de engasjerer seg — men på egne betingelser.

Kritikere advarer mot glidende grenser

Til tross for de uttalte garantiene er det grunn til å stille kritiske spørsmål. En sentral bekymring blant overvåkningsgrupper er det som omtales som «mission creep» — at AI-verktøy opprinnelig utviklet for administrative eller defensive formål gradvis kan tilpasses mer offensive operasjoner.

Det er verdt å merke seg at OpenAI allerede i januar 2026 stille og rolig fjernet den eksplisitte forbudsformuleringen mot «militær og krigføring» fra sine brukervilkår. Den reviderte policyen forbyr fortsatt bruk til å «skade andre» eller «utvikle våpen», men den overordnede forbudsklausulen er borte. Kritikere mener dette prioriterer juridisk handlingsrom over faktisk sikkerhet.

Spørsmålet om hvorvidt OpenAI reelt sett kan håndheve sine egne røde linjer overfor en stor statlig aktør som DoD, gjenstår ubesvart — og det finnes foreløpig ingen dokumentert, uavhengig verifikasjon av at de beskrevne mekanismene fungerer som påstått.