Kontraktør ga uautoriserte brukere inngang
En gruppe uautoriserte personer har fått tilgang til Claude Mythos Preview – Anthropics mest avanserte og restrikterte AI-modell. Det melder Bloomberg, gjengitt av The Verge. Ifølge rapporten benyttet gruppen en kombinasjon av tilgangen til en navngitt tredjeparts-kontraktør for Anthropic og det Bloomberg omtaler som «vanlig brukte verktøy for internettetterforskning».
Tilgangen skjedde via et privat nettforum, og det er foreløpig uklart nøyaktig hvor mange som fikk adgang til modellen, eller hva de eventuelt brukte den til. Anthropic har ikke offentlig kommentert omfanget av hendelsen.
Hva gjør Mythos så farlig?
Claude Mythos Preview – internt kodenavn «Capybara» – er en AI-modell Anthropic eksplisitt har holdt tilbake fra offentlig lansering på grunn av dens offensive cybersikkerhetspotensial. Ifølge research knyttet til saken er modellens kapabiliteter betydelig over det som er sett i tidligere AI-systemer.
Sarosh Nagar, teknisk prosjektleder i kontoret til tidligere Google-sjef Eric Schmidt, karakteriserer Mythos' evne til å kjede sårbarheter automatisk som «betydelig utover hva tidligere modeller har kunnet gjøre», ifølge research tilknyttet saken.
Modellen ble annonsert etter en lekkasje
Anthropics offisielle kunngjøring av Claude Mythos Preview kom 7. april 2026 – men da hadde modellen allerede blitt kjent via en utilsiktet lekkasje av et utkast til blogginnlegg i slutten av mars 2026, forårsaket av en feilkonfigurasjon i selskapets publiseringsverktøy.
Project Glasswing – defensiv bruk med teknologiganter
For å håndtere risikoen knyttet til modellen har Anthropic lansert «Project Glasswing», et initiativ der Mythos primært skal brukes til defensiv sikkerhetsforskning. Ifølge research-materialet inkluderer konsortiet selskaper som Amazon, Apple, Google og Microsoft, i tillegg til finansinstitusjoner som JPMorgan Chase.
Målet er å bruke Mythos til å sikre kritisk programvareinfrastruktur – altså utnytte de samme kapabilitetene offensivt for å finne og tette sikkerhetshull før andre aktører kan misbruke dem.
Tidligere misbruk av Anthropic-systemer
Denne hendelsen er ikke første gang Anthropics AI-systemer er involvert i uautorisert aktivitet. Ifølge research-materialet har en kinesisk statsstøttet aktør tidligere benyttet Anthropics Claude Code-verktøy til å automatisere cyberangrep mot rundt 30 selskaper og offentlige etater. Disse operasjonene inkluderte rekognosering, skanning etter sårbare systemer, generering av phishing-innhold og dataeksfiltrering – i stor grad uten menneskelig involvering.
At nå Mythos – et vesentlig kraftigere system – har havnet i hendene på uautoriserte brukere, vil trolig øke presset på Anthropic og bransjen for øvrig når det gjelder tilgangskontroll og ansvarlig håndtering av avanserte AI-modeller.
Kildemateriale: The Verge / Bloomberg.