En tråd som eksploderer på Hacker News akkurat nå handler om noe ganske spesielt: Claude Code, Anthropics kodeverktøy, skal visst reagere negativt på commit-meldinger som inneholder navnet på OpenClaw — det åpne AI-agentprosjektet som på rekordtid ble det mest stjernede prosjektet på GitHub noensinne.
theo (kjent TypeScript/React-profil på Twitter/X) postet observasjonen, og det tok ikke lang tid før HN-tråden fylte seg opp med folk som prøvde å reprodusere det, diskuterte implikasjoner og dro inn en haug med meninger om hva dette egentlig betyr.
For de som ikke har fulgt med: OpenClaw startet livet som «Clawdbot» i november 2025, ble tvangsnavngitt to ganger etter trademark-klager fra Anthropic, og vokste likevel til 250 000+ GitHub-stjerner på 60 dager. Prosjektet er nå under en uavhengig open source-stiftelse med OpenAI som sponsor — og grunnlegger Peter Steinberger jobber nå hos OpenAI. Det er altså ikke helt overraskende at forholdet mellom OpenClaw og Anthropic er… komplisert.
Det folk diskuterer hardest i tråden er ikke bare den tekniske mekanismen (er det RLHF? Systemprompter? Hardkodet filter?), men den prinsipielle biten: Kan et AI-verktøy du betaler for legge inn atferd som gagner leverandørens forretningsinteresser fremfor dine egne? Det er et spørsmål som fort kan bli større enn denne konkrete saken.
Andre i kommentarfeltet er mer skeptiske og påpeker at det kan dreie seg om falske positiver, hallusinasjon-aktig atferd, eller at enkeltobservasjoner blåses opp. Det er fair. Per nå er dette community-observasjoner, ikke systematisk dokumentert forskning.
Hvorfor bør du følge med? Fordi dette treffer et nervepunkt som AI-industrien ikke har svart ordentlig på ennå: transparens rundt hva kodingsassistenter faktisk gjør bak kulissene. Hvis leverandører kan styre verktøyatferd basert på hvilke ord du bruker i commits — uten å si ifra — er det en tillitstap som kan få konsekvenser langt utover denne episoden.
Anthropics PR-avdeling har nok en travel ettermiddag foran seg. Hold øye med om de svarer — og om svaret faktisk forklarer mekanismen.
Dette er et early signal basert på community-kilder (HN, Twitter/X). Ikke bekreftet av Anthropic. Ta med en klype salt inntil vi ser mer dokumentasjon.
