OpenAI har tatt et markant steg inn i agentisk AI med en kraftig oppgradering av verktøyet Codex. Ifølge Digi.no skal systemet nå være i stand til å operere samtlige apper på brukerens PC på helt selvstendig vis — uten at mennesket trenger å gripe inn underveis.

Hva er en AI-agent, og hva kan Codex nå gjøre?

AI-agenter skiller seg fra vanlige AI-assistenter ved at de ikke bare svarer på spørsmål — de handler. De planlegger oppgaver, tar beslutninger og utfører dem i sekvens, gjerne på tvers av ulike programmer og tjenester. Med den nye oppgraderingen skal Codex kunne navigere alt fra e-postklienter og nettlesere til regneark og koderedigerere, alt etter hva brukeren ber om.

Dette representerer et vesentlig skifte fra den klassiske AI-chatboten, som er begrenset til én samtaleboks, til et system som beveger seg fritt rundt i hele det digitale arbeidsrommet ditt.

Fra én samtaleboks til fri bevegelse gjennom hele det digitale arbeidsrommet — det er den reelle endringen Codex representerer.
OpenAIs Codex tar kontroll over PC-en din – uten at du løfter en finger

Sikkerhetseksperter slår alarm

Selvstendige AI-agenter med bred tilgang til en datamaskin åpner for et betydelig trusselbilde. Ifølge innhentet forskningsinformasjon er prompt injection regnet som en av de fremste risikoene: angripere kan legge inn ondsinnede instruksjoner i dokumenter eller inndatafelter for å overstyre agentens opprinnelige programmering og utløse utilsiktede handlinger.

John Paul Cunningham, sikkerhetssjef i Silverfort, advarer om at organisasjoner «uvitende gir AI-agenter bred tilgang — til e-post, lydopptak fra møter og sensitiv kommunikasjon — med lite tilsyn eller logging». Analyseselskapet Gartner anslår at én av fire virksomhetsbrudd i fremtiden vil involvere misbruk av agentisk AI.

OpenAIs Codex tar kontroll over PC-en din – uten at du løfter en finger

Personvern: En ny dimensjon av bekymring

Beyond de tekniske sårbarhetene ligger det et dypere etisk spørsmål. For at en AI-agent skal fungere autonomt, trenger den tilgang til enorme mengder personlig og sensitiv informasjon — finansdata, kommunikasjonsmønstre, nettleserhistorikk og potensielt biometriske data.

Adnan Masood, sjefarkitekt for AI i konsulentselskapet UST, formulerer problemstillingen skarpt: ingen mengde kryptering eller anonymisering kan beskytte mot et system som aldri glemmer noe, og som kan koble datapunkter på tvers av datasett på måter mennesker aldri ville tenkt på å sammenligne.

Matissa Hollister, assisterende professor ved McGill Desautels, peker på at agentene typisk tar gjentatte skjermbilder for å navigere brukergrensesnittet — noe som i seg selv utgjør en risiko for konfidensiell informasjon.

En AI-agent som aldri glemmer og ser alt du gjør på PC-en, er noe fundamentalt annet enn en chatbot.

«Ikke modent nok» for full autonomi, ifølge ekspert

Matt Kropp fra Boston Consulting Group er tydelig på at teknologien ennå ikke er klar for ukritisk massedistribusjon: det er «ganske risikabelt akkurat nå, fordi det ikke finnes nok sikkerhetsnett i systemet til at folk kan føle seg komfortable med at agenter kjøper ting for dem autonomt», ifølge ham.

LLM-baserte agenter er dessuten ikke hundre prosent pålitelige og kan «hallusinere» — altså gi selvsikre, men feilaktige svar. I flertrinns arbeidsflyter kan en liten feil tidlig i prosessen forplante seg og forstørres gjennom alle etterfølgende beslutninger.

1 av 4
Andel fremtidige virksomhetsbrudd Gartner mener vil involvere agentisk AI
24 %
Andel generative AI-initiativ som per i dag er tilstrekkelig sikret

Hva betyr dette for norske brukere og virksomheter?

For norske brukere og bedrifter er det all grunn til å følge utviklingen nøye. Agentic AI er i rask vekst, og norske virksomheter som tar i bruk slike verktøy uten tilstrekkelig sikkerhetspolicyer, risikerer å eksponere sensitiv informasjon. GDPR-regelverket stiller dessuten strenge krav til hvordan persondata behandles automatisk — noe som kan sette autonome AI-agenter i et juridisk grenseland.

Digi.no omtaler lanseringen som en betydelig milepæl, men det gjenstår å se hvilke konkrete begrensninger og sikkerhetstiltak OpenAI har bygget inn i den oppgraderte Codex-versjonen. 24AI følger saken.