OpenAI har tatt et markant steg inn i agentisk AI med en kraftig oppgradering av verktøyet Codex. Ifølge Digi.no skal systemet nå være i stand til å operere samtlige apper på brukerens PC på helt selvstendig vis — uten at mennesket trenger å gripe inn underveis.
Hva er en AI-agent, og hva kan Codex nå gjøre?
AI-agenter skiller seg fra vanlige AI-assistenter ved at de ikke bare svarer på spørsmål — de handler. De planlegger oppgaver, tar beslutninger og utfører dem i sekvens, gjerne på tvers av ulike programmer og tjenester. Med den nye oppgraderingen skal Codex kunne navigere alt fra e-postklienter og nettlesere til regneark og koderedigerere, alt etter hva brukeren ber om.
Dette representerer et vesentlig skifte fra den klassiske AI-chatboten, som er begrenset til én samtaleboks, til et system som beveger seg fritt rundt i hele det digitale arbeidsrommet ditt.
Fra én samtaleboks til fri bevegelse gjennom hele det digitale arbeidsrommet — det er den reelle endringen Codex representerer.

Sikkerhetseksperter slår alarm
Selvstendige AI-agenter med bred tilgang til en datamaskin åpner for et betydelig trusselbilde. Ifølge innhentet forskningsinformasjon er prompt injection regnet som en av de fremste risikoene: angripere kan legge inn ondsinnede instruksjoner i dokumenter eller inndatafelter for å overstyre agentens opprinnelige programmering og utløse utilsiktede handlinger.
John Paul Cunningham, sikkerhetssjef i Silverfort, advarer om at organisasjoner «uvitende gir AI-agenter bred tilgang — til e-post, lydopptak fra møter og sensitiv kommunikasjon — med lite tilsyn eller logging». Analyseselskapet Gartner anslår at én av fire virksomhetsbrudd i fremtiden vil involvere misbruk av agentisk AI.

Personvern: En ny dimensjon av bekymring
Beyond de tekniske sårbarhetene ligger det et dypere etisk spørsmål. For at en AI-agent skal fungere autonomt, trenger den tilgang til enorme mengder personlig og sensitiv informasjon — finansdata, kommunikasjonsmønstre, nettleserhistorikk og potensielt biometriske data.
Adnan Masood, sjefarkitekt for AI i konsulentselskapet UST, formulerer problemstillingen skarpt: ingen mengde kryptering eller anonymisering kan beskytte mot et system som aldri glemmer noe, og som kan koble datapunkter på tvers av datasett på måter mennesker aldri ville tenkt på å sammenligne.
Matissa Hollister, assisterende professor ved McGill Desautels, peker på at agentene typisk tar gjentatte skjermbilder for å navigere brukergrensesnittet — noe som i seg selv utgjør en risiko for konfidensiell informasjon.
«Ikke modent nok» for full autonomi, ifølge ekspert
Matt Kropp fra Boston Consulting Group er tydelig på at teknologien ennå ikke er klar for ukritisk massedistribusjon: det er «ganske risikabelt akkurat nå, fordi det ikke finnes nok sikkerhetsnett i systemet til at folk kan føle seg komfortable med at agenter kjøper ting for dem autonomt», ifølge ham.
LLM-baserte agenter er dessuten ikke hundre prosent pålitelige og kan «hallusinere» — altså gi selvsikre, men feilaktige svar. I flertrinns arbeidsflyter kan en liten feil tidlig i prosessen forplante seg og forstørres gjennom alle etterfølgende beslutninger.
Hva betyr dette for norske brukere og virksomheter?
For norske brukere og bedrifter er det all grunn til å følge utviklingen nøye. Agentic AI er i rask vekst, og norske virksomheter som tar i bruk slike verktøy uten tilstrekkelig sikkerhetspolicyer, risikerer å eksponere sensitiv informasjon. GDPR-regelverket stiller dessuten strenge krav til hvordan persondata behandles automatisk — noe som kan sette autonome AI-agenter i et juridisk grenseland.
Digi.no omtaler lanseringen som en betydelig milepæl, men det gjenstår å se hvilke konkrete begrensninger og sikkerhetstiltak OpenAI har bygget inn i den oppgraderte Codex-versjonen. 24AI følger saken.
