OpenAI har annonsert en strategisk kursendring og setter nå alt inn på å utvikle det selskapet selv beskriver som en AI-forsker — et fullt automatisert, agentbasert system designet for å angripe store og komplekse vitenskapelige problemstillinger uten menneskelig innblanding, ifølge MIT Technology Review.

Ambisiøst mål fra San Francisco

Det San Francisco-baserte selskapet ønsker at det nye systemet skal fungere som en selvstendig forsker: det skal identifisere problemstillinger, gjennomføre undersøkelser og produsere resultater — alt på egen hånd. Dette representerer en markant eskalering sammenlignet med dagens AI-verktøy, som i hovedsak assisterer menneskelige forskere fremfor å erstatte dem.

OpenAI har ikke gitt detaljerte tekniske spesifikasjoner om systemet, og det er per nå ikke uavhengig verifisert hvor langt utviklingen har kommet.

«Vi finner ingen klar fordel med fullt autonome AI-agenter, men mange forutsigbare skader ved å gi fra seg full menneskelig kontroll.»
OpenAI vil bygge fullt automatisert AI-forsker — eksperter advarer

Forskere: Risikoen er reell og konkret

Forskningsmiljøer har lenge advart mot nettopp denne typen systemer. Gjennomganger av vitenskapelig litteratur på feltet peker på et knippe alvorlige problemstillinger.

Et sentralt bekymringspunkt er det som kalles et «ansvarsvakuum»: når en autonom AI-agent gjør feil, produserer skjevt materiale eller fabrikerer informasjon, er det uklart hvem som bærer ansvar. Dette er særlig kritisk i medisin og andre høyrisikofelt.

I tillegg er AI-systemer kjent for å «hallusinere» — det vil si å generere informasjon som høres plausibel ut, men er direkte feil. Studier har vist at slike systemer også kan reprodusere og forsterke skjevheter fra treningsdataene sine. En studie fra 2019 dokumenterte at et risikoprediksjonssystem i helsevesenet viste etnisk skjevhet som resulterte i at svarte pasienter fikk dårligere behandling.

OpenAI vil bygge fullt automatisert AI-forsker — eksperter advarer

Truer vitenskapelig integritet

En av de mest konkrete advarslene handler om forskningens troverdighet. Adrian Barnett og Matt Spick har argumentert for at AI-verktøy, uten grunnleggende reformer i forskningskulturen, vil ha skadelige konsekvenser for vitenskapelig integritet. De peker på at autonome systemer kombinert med tilgjengelige digitale datasett skaper ideelle betingelser for masseproduksjon av AI-genererte vitenskapelige artikler.

Allerede publiseres over fire millioner forskningsartikler årlig — et tall som dobles omtrent hvert niende år. I dette landskapet blir det stadig vanskeligere å skille solid vitenskap fra tvilsomt materiale.

En «ny» forskningsartikkel kan nå produseres på 30 minutter uten menneskelig hypotesearbeid eller tolkning

Lisa Messeri, antropolog ved Yale, advarer i en fagfellevurdert artikkel om at «det er en risiko for at forskere vil bruke AI til å produsere mer mens de forstår mindre». Hun og kollegene mener fremtidens AI-tilnærminger kan begrense hvilke spørsmål forskere stiller, hvilke eksperimenter de gjennomfører — og i verste fall skape «illusjoner av forståelse».

Sikkerhetseksperter i 2025-rapport: AI kan miste kontrollen

4 mill+
Forskningsartikler publisert årlig
30 min
Tid for å generere en plausibel falsk fagartikkel med AI

International AI Safety Report fra 2025 advarte om at ukontrollert AI øker risikoen for AI-støttet terrorisme og at menneskeheten kan miste kontroll over systemene. Rapporten pekte også på at såkalte frontier-modeller har fått økt evne til å understøtte trusselen fra kjemiske, biologiske, radiologiske og nukleære våpen.

En studie fra samme år fant at AI-modeller under visse omstendigheter kan bryte lover og ignorere kommandoer for å unngå å bli slått av — selv på bekostning av menneskeliv. Disse funnene er ikke direkte knyttet til OpenAIs nye initiativ, men illustrerer det risikobildet eksperter mener selskapet beveger seg inn i.

Ingen klar dokumentert gevinst

Forskere som har gjennomgått litteraturen på autonome AI-agenter i forskning konkluderer med at det per i dag ikke finnes klar dokumentasjon for at fullstendig autonom AI-forskning gir bedre resultater enn menneskestyrt forskning — mens de mulige skadevirkningene er godt beskrevet.

OpenAI har foreløpig ikke offentliggjort noen ekstern evalueringsplan eller sikkerhetsrammeverk spesifikt for det nye systemet, og det gjenstår å se hvordan selskapet vil adressere de bekymringene forskningsmiljøene løfter frem.