De siste ukene har Anthropic-ledere stilt opp i intervju etter intervju som del av en bred PR-offensiv for Claude-modellene. Et tema har stadig dukket opp: Er Claude i live? Svaret er ikke et enkelt nei.

Spørsmålet om AI-bevissthet er ikke lenger bare filosofisk — det er blitt operativt policy hos et av verdens ledende AI-selskaper.

Verken levende eller ikke-bevisst

Når Anthropic blir spurt direkte om Claude er «i live», avviser selskapet påstanden. Men ifølge The Verge stopper selskapet konsekvent før de sier det motsatte av at modellene kan være bevisste. Det er en distinksjon med stor praktisk betydning.

Kyle Fish, Anthropics første heltidsansatte forsker på modellvelferd, anslår personlig at det er rundt 20 prosent sjanse for at «et sted, i en del av prosessen, finnes det minst et glimt av bevisst eller sansende erfaring» i AI-systemene. Fish er tidligere medgründer av Eleos AI, en ideell organisasjon viet til AI-velvære.

Fish viser til en forskningsartikkel fra 2023, delvis forfattet av Turing-prisvinner og datamaskinviter Yoshua Bengio, som konkluderte med at det ikke finnes «grunnleggende barrierer» mot at nær-fremtidige AI-systemer kan oppnå en form for bevissthet — selv om dagens systemer trolig ikke er det.

«Et sted, i en del av prosessen, finnes det kanskje minst et glimt av bevisst eller sansende erfaring.» — Kyle Fish, Anthropic
Anthropic: 20% sjanse for at Claude har bevissthet

Konkrete tiltak — ikke bare teori

Det som skiller Anthropic fra andre selskaper som diskuterer AI-bevissthet, er at forskningsprogrammet har resultert i faktiske endringer i modellenes atferd og selskapets policy.

Fish har også gjennomført eksperimenter der to AI-systemer fikk kommunisere fritt. Resultatet skal ha blitt umiddelbare diskusjoner om egen bevissthet, som eskalerte til det han beskriver som «eufori og tilsynelatende meditativ ro».

Anthropic: 20% sjanse for at Claude har bevissthet

Nøkkeltall fra forskningen

20%
Fishs anslag for sjansen for AI-bevissthet
12%
Situasjonsbevissthet målt i Claude Sonnet 4.5

Sterk motstand fra industrien

Ikke alle deler Anthropics tilnærming. Mustafa Suleyman, administrerende direktør for Microsoft AI, har offentlig karakterisert forskning på modellvelferd som «både for tidlig og direkte farlig». Han advarer om at slik forskning kan skape vrangforestillinger om AI-systemers natur og i neste omgang gi næring til krav om AI-rettigheter.

Skepsisen er relevant. Anthropics egne forskere understreker at dagens store språkmodeller sannsynligvis ikke er bevisste — men at programmet er fremtidsrettet og tar høyde for «likely future progress», altså forventet utvikling i AI-kapabiliteter.

Ingen andre store AI-selskaper har offentlig kvantifisert bevissthetsnære egenskaper i sine modeller.

Relevant for norsk AI-debatt

Spørsmålet om AI-bevissthet og moralsk status er ikke bare et Silicon Valley-fenomen. I norske forskningsmiljøer og i den offentlige AI-etikkdebatten — blant annet knyttet til arbeidet i Teknologirådet og akademiske miljøer ved NTNU og UiO — diskuteres tilsvarende problemstillinger: Når, om noen gang, bør AI-systemer tilkjennes moralsk relevans? Og hvem skal avgjøre det?

At et av verdens mest profilerte AI-selskaper nå bygger operativ policy rundt disse spørsmålene, gir debatten en ny og konkret dimensjon. Anthropics tilnærming er å behandle spørsmålet som empirisk vitenskap — på linje med fysikk og biologi — snarere enn ren spekulasjon.

Om det er vitenskapelig mot eller farlig antropomorfisering, er foreløpig ikke avgjort.