Militær kunstig intelligens har lenge vært et tema i forsvarspolitiske kretser, men nå viser konkrete demobilder og Pentagon-dokumenter hvordan teknologien faktisk er tenkt brukt — ikke bare i teorien, men i operativ planlegging.

Chatboter inn i kommandosentralen

Palantir, det kontroversielle datateknologiselskapet med dype røtter i amerikansk etterretning og forsvar, demonstrerer ifølge Wired systemer der AI-chatboter kan brukes til å analysere etterretningsdata og foreslå konkrete militære handlingsalternativer. Blant modellene som trekkes frem er Anthropic's Claude — en av de mest brukte storspråkmodellene i kommersielt bruk i dag.

Systemene er designet som beslutningsstøtteverktøy. Det vil si at en menneskelig kommandør fortsatt formelt tar den endelige avgjørelsen — men forslagene, analysene og prioriteringene kommer fra et AI-system som prosesserer langt mer data enn noe menneske kan håndtere på kort tid.

En maskin, blodløs og uten moral eller dødelighet, kan ikke fatte betydningen av å ta eller lemleste et menneskeliv.
AI planlegger krig: Slik vil Palantir bruke chatboter i Pentagon

Det etiske minefeltets kjerne

Debattens kjerne handler ikke bare om teknisk kapasitet, men om hvem som bærer det moralske og juridiske ansvaret når noe går galt.

Etikere og menneskerettighetsorganisasjoner har lenge advart om det som kalles et ansvarsgap: når en maskin foreslår et mål og en menneskelig operatør godkjenner det under tidspress, hvem er da ansvarlig for sivile tap? Eksisterende rammeverk i internasjonal humanitærrett (jus in bello) forutsetter at et identifiserbart menneske kan holdes ansvarlig — noe som blir vanskelig å håndheve når avgjørelsen er delvis delegert til en algoritme.

Forsker og etiker Robert Sparrow har pekt på at dette grunnleggende ansvarsvilkåret risikerer å bli undergravd av autonome og halvautonome systemer.

AI planlegger krig: Slik vil Palantir bruke chatboter i Pentagon

Automatiseringsbias — den skjulte faren

Selvom systemene er designet for å støtte menneskelige beslutningstakere, er det godt dokumentert at mennesker i høystress-situasjoner har en tendens til å stole blindt på det maskinen foreslår. Dette fenomenet — automatiseringsbias — er særlig bekymringsfullt i militære kontekster der tidsvinduet for beslutning kan måles i sekunder.

Forskning sitert av Wired antyder at dette ikke er en hypotetisk risiko, men en veldokumentert kognitiv svakhet som forsterkes under press. Konsekvensen er at det formelle menneskelige «godkjenningsleddet» i praksis kan bli mer symbolsk enn reelt.

Når maskinen foreslår og mennesket bekrefter under tidspress, er det reelt sett mennesket som bestemmer — eller bare et stempel?

Relevant for Norge og NATO

Norge er ikke en tilskuer i denne debatten. Som NATO-alliert er norske styrker del av en allianse der amerikanske systemer og doktriner setter standarden. Dersom Pentagon innfører AI-drevet beslutningsstøtte i operativ planlegging, vil det påvirke hvordan fellesoperasjoner planlegges og gjennomføres — også med norsk deltakelse.

Forsvarsdepartementet har de siste årene økt bevilgningene til forsvarsteknologi kraftig, og NATO har vedtatt prinsipper for ansvarlig bruk av AI i militære operasjoner. Men det er et stykke fra overordnede prinsipper til konkret regulering av hvilke AI-systemer som faktisk kan brukes, og under hvilke betingelser.

Etikkeksperter, blant dem FNs spesialrapportør Christof Heyns, har argumentert for at beslutninger om å ta liv aldri fullt ut kan eller bør delegeres til maskiner — uansett hvor sofistikerte de er.

Grensen mellom støtte og autonomi

Palantirs demobilder, ifølge Wired, viser systemer som befinner seg i en gråsone: de er ikke fullt autonome, men de former beslutningsrommet så kraftig at det er legitimt å spørre om den menneskelige kontrollen er reell. Datatilsynet i en rekke europeiske land har allerede pekt på at «human-in-the-loop»-modeller kan gi falsk trygghet dersom det menneskelige leddet er strukturelt svekket av tidspress og informasjonsoverbelastning.

Spørsmålet som gjenstår ubesvart — og som verken Palantir eller Pentagon har gitt et tilfredsstillende svar på — er: Hva er terskelen for når AI-forslag er «gode nok» til å godkjennes, og hvem setter den terskelen?