Da Anthropic ble kastet ut av det amerikanske forsvarsdepartementet i februar 2026, tok det ikke mange timer før en annen AI-gigant trådte inn. OpenAI kunngjorde 28. februar en formell avtale med Pentagon om å gjøre selskapets AI-modeller tilgjengelige i klassifiserte omgivelser – et trekk som reiser spørsmål om politisk timing og hva som egentlig skiller de to selskapenes tilnærminger.

Fra forbud til formalitet

OpenAI har gjennomgått en markant kursendring i synet på militær bruk av sine teknologier. Før januar 2024 forbød selskapets retningslinjer eksplisitt bruk knyttet til «militær og krigføring» samt utvikling av våpen. I januar 2024 fjernet OpenAI disse konkrete formuleringene og erstattet dem med en bredere instruks om ikke å «skade seg selv eller andre», ifølge forskningsgrunnlaget som MIT Technology Review baserer sin dekning på.

Selskapet presenterte endringen som en ryddejobb for å gjøre dokumentet «tydeligere og mer lesbart», men effekten var at døren til forsvarskontrakter ble åpnet.

Sam Altman erkjente selv at forhandlingene var «definitivt hastepreget»
OpenAI fikk Pentagon-deal timer etter at Anthropic ble utestengt

Hva avtalen inneholder

OpenAIs avtale med Pentagon inkluderer det selskapet beskriver som robuste sikkerhetsmekanismer. Ifølge MIT Technology Review er det satt opp «røde linjer» som forbyr bruk av teknologien til:

Sam Altman fremholdt at OpenAIs tilnærming er «flerlagsdelt» og mer omfattende enn det Anthropic la opp til. Han antydet at Anthropic søkte mer operasjonell kontroll enn det Pentagon var villig til å gi.

OpenAI fikk Pentagon-deal timer etter at Anthropic ble utestengt

Speilbildet av det Anthropic krevde

Her blir situasjonen paradoksal: De grensene OpenAI nå har fått aksept for, er i det vesentlige de samme som Anthropic ble straffet for å insistere på.

Anthropic hadde lenge hatt forbud mot masseovervåkning av amerikanske borgere og mot fullt autonome våpen som avfyres uten menneskelig involvering. Da selskapet krevde at disse grensene skulle nedfelles eksplisitt i kontrakten, erklærte Pentagon Anthropic til å være en «risiko for nasjonal sikkerhet i forsyningskjeden». President Donald Trump ga alle føderale etater seks måneder på å fase ut Anthropic-teknologi.

Anthropics administrerende direktør Dario Amodei uttalte offentlig at han ikke «med god samvittighet» kunne tillate at selskapets teknologi ble brukt til masseovervåkning eller til å styre autonome våpensystemer selvstendig.

De to selskapene ville det samme – men bare ett av dem ble straffet for det

Forskjellen ser ut til å ligge i implementeringen, ikke i prinsippene. Der Anthropic ønsket juridisk bindende kontraktsspråk, baserer OpenAI seg på en kombinasjon av kontraktuelt vern, tekniske sikkerhetstiltak og personelltilsyn.

Ekspertskepsis

Flere eksperter er kritiske til utviklingen. Heidy Khlaaf, teknisk direktør ved Trail of Bits, advarer mot at overgangen fra eksplisitte forbud til en mer skjønnsmessig og lovlighetsbasert tilnærming kan ha alvorlige konsekvenser for AI-sikkerhet – med risiko for skjevheter og økt skade i militære kontekster, ifølge MIT Technology Review.

Jimena Sofía Viveros Álvarez, medlem av FNs rådgivende organ for AI på høyt nivå, advarer mot å la AI-systemer spille en rolle i militær målutvelgelse, uavhengig av hvilke sikkerhetslag som er på plass.

Timingen for OpenAIs annonsering – få timer etter Anthropics utestengelse – har dessuten fått eksperter til å stille spørsmål ved om det foregikk politisk koordinering i Pentagons valg av AI-partnere.

Hva dette betyr fremover

Saken illustrerer en voksende spenning i AI-industrien: Hvordan balansere kommersielle interesser mot etiske forpliktelser i møte med statlig press? OpenAI-avtalen viser at det er mulig å lande et kompromiss med Pentagon – men den åpner også spørsmål om hvorvidt slike kompromisser er mer et resultat av forhandlingstaktikk enn av reelle prinsipielle forskjeller mellom selskapene.

At Altman selv kalte prosessen «definitivt hastepreget», gir liten grunn til å anta at alle implikasjoner er grundig gjennomtenkt.