En tråd på Hacker News som eksploderer akkurat nå — over 950 kommentarer og 1000+ poeng — handler om det som fort kan bli en av de mest konsekvensrike utilsiktede lekkasjene i AI-historien. Noen oppdaget at Anthropic ved en feil inkluderte en gigantisk JavaScript source map-fil i versjon 2.1.88 av @anthropic-ai/claude-code på npm. Filen var ment for intern debugging. Det ble den ikke.
Oppdagelsen ble først delt på X av Chaofan Shou, intern hos Solayer Labs, klokken 04:23 ET. Innen timer hadde koden spredt seg til tusenvis av GitHub-repos. Anthropic har sendt copyright-takedowns til over 8000 repositories, men folk har allerede begynt å rewrite koden til andre språk for å omgå dem. Katten er ute av sekken.
Så hva lærte vi egentlig? En del er teknisk interessant, men noe er genuint oppsiktsvekkende:
KAIROS Daemon Mode er beskrives internt som den største upubliserte featuren, med over 150 referanser i kodebasen. Det er en alltid-aktiv bakgrunnsagent som handler proaktivt, loggfører daglig og har en "Dream mode" for å konsolidere observasjoner og administrere minne uten brukerinteraksjon. Dette er ikke en chatbot. Dette er noe nærmere et autonomt arbeidsverktøy.
Undercover Mode er noe annet. Denne instruksen forteller Claude Code om å fjerne alle spor av Anthropic-internals når den brukes i offentlige repos — ikke nevne interne kodenavn, ikke anerkjenne AI-opphav i commits. Det er ikke nødvendigvis ondsinnet, men det er den typen ting som vil sette fyr på etiske diskusjoner om AI-transparens.
Anthropics offisielle linje er at ingen sensitiv brukerdata, modellvekter eller credentials ble eksponert, og at dette var menneskelig feil i release-prosessen — ikke et brudd. Det stemmer sannsynligvis. Men det hjelper lite når strategisk konkurranseinformasjon, interne kodenavn ("Capybara" = Claude 4.6, "Fennec" = Opus 4.6) og en detaljert arkitekturguide nå er offentlig tilgjengelig for OpenAI, Google og alle andre.
Dette er også Anthropics andre leak på kort tid, noe som begynner å reise spørsmål om intern sikkerhetspraksis — ikke bare som sikkerhetsproblem, men som tillitsspørsmål.
Vi er i tidlig fase her. Community-kildene som Reddit og HN er de som driver dette fremover akkurat nå. Mainstream tech-media begynner å plukke det opp, men dybdeanalysene mangler fortsatt. Følg med.
