OpenAI har satt seg et ambisiøst nytt mål: å utvikle en fullt automatisert AI-forsker — et agentbasert system designet for å angripe store og sammensatte vitenskapelige utfordringer uten behov for løpende menneskelig styring. Det melder MIT Technology Review.
Et nytt storsatsingsprosjekt for OpenAI
Satsingen representerer en vesentlig opptrapping fra dagens AI-verktøy, som i all hovedsak fungerer som assistenter for menneskelige forskere. Det OpenAI nå sikter mot, er et system som aktivt kan planlegge, gjennomføre og tolke forskning på egenhånd — fra hypotesegenerering til analyse og konklusjon.
Detaljene rundt systemets arkitektur og tidslinje er foreløpig knappe, men selskapet har ifølge MIT Technology Review presentert dette som en sentral ambisjon i sin videre utvikling av agentbaserte systemer.
«Large Language Models er Pandoras eske for akademisk forskning. De kan eliminere akademisk uavhengighet, kreativitet og selvstendig tenkning — men de kan også muliggjøre ufattelig samskaping og produktivitet.» — Professor Julian Savulescu, The Uehiro Oxford Institute

Etiske spørsmål tårner seg opp
Eksperter er langt fra entydige i sin vurdering av hva automatisert AI-forskning vil innebære. Ifølge tilgjengelig forskning på feltet er det en rekke alvorlige etiske problemstillinger som ennå ikke er løst.
Et sentralt punkt er det som beskrives som et «ansvarsgap»: når et AI-system begår feil, produserer skjeve resultater eller fabrikkerer informasjon, er det uklart hvem som bærer det juridiske og moralske ansvaret. I medisinsk forskning kan konsekvensene av slike feil være alvorlige.
I tillegg er det en risiko for at eksisterende skjevheter i treningsdata blir forsterket og reflektert i forskningsresultatene. Manglende åpenhet om hvordan modellene treffer beslutninger — det såkalte «svarte boks»-problemet — gjør det vanskelig å etterprøve funnene.
Professor Timo Minssen fra Universitetet i København understreker at etiske retningslinjer er «helt nødvendige for å forme den etiske bruken av AI i akademisk forskning».

Hvem mister jobben?
Spørsmålet om jobbfortrengning er mer nyansert enn mange frykter, men det betyr ikke at alle er like utsatte. Et arbeidsnotat fra Stanford fra august 2025 fant at tidligkarriere-arbeidstakere i alderen 22–25 år, i yrker med høy AI-eksponering, opplevde en nedgang på 13 prosent i sysselsetting sammenlignet med mindre eksponerte yrker — målt mellom slutten av 2022 og juli 2025.
Den dominerende trenden ser ut til å være jobbforvandling snarere enn fullstendig jobbforsvinnelse. Forskning antyder at rundt 12 millioner jobber i USA — tilsvarende 7,8 prosent av arbeidsstyrken — i dag utføres med minst 50 prosent bruk av generativ AI.
Analytikere peker likevel på at det kan oppstå nye roller — som «AI-valideringseksperter» — for å sikre kvaliteten på AI-generert forskning og opprettholde etiske standarder.
En kompetanserisiko for fremtidige forskere
En bekymring som trekkes frem i forskningsmiljøene, er at automatisering av basale forskningsoppgaver kan undergrave opplæringen av nye generasjoner forskere. Når grunnleggende metodeferdigheter erstattes av AI-systemer, risikerer man at disse ferdighetene ikke lenger utvikles hos unge fagpersoner.
Det er foreløpig uklart i hvilken grad OpenAIs nye satsing vil adressere disse utfordringene, eller om selskapet prioriterer å levere teknologisk kapasitet først og regulatoriske og etiske rammer senere.
