En tråd på Hacker News Best som eksploderer akkurat nå handler om Anthropics nye «Claude Design»-dokument — og hvis du ikke har fått det med deg enda, er det på tide å våkne.

Anthropics Constitutional AI-tilnærming er ikke ny, men det nye dokumentet tar det til et helt annet nivå. Det er ikke en liste med regler. Det er nærmest et filosofisk manifest — en slags sjelsbiografi for en AI-modell. Tanken er at Claude ikke skal følge regler mekanisk, men internalisere brede prinsipper og resonnere seg frem til riktig atferd. Tenk mindre «10 bud», mer «hva ville et godt menneske gjort her».

Det som virkelig har satt fyr på kommentarfeltet er én detalj: dokumentet er i all hovedsak skrevet til Claude, ikke til ingeniørene eller brukerne. Anthropic vil at modellen skal lese og absorbere dette som grunnlag for sin egen identitet og sine egne verdier. Det er filosofisk dristig — og for mange i community-en, dypt ubehagelig.

Når du designer en AI ved å gi den en sjel, hvem er det egentlig som bestemmer hva sjelen skal inneholde?

På HN peker flere kommentatorer på den åpenbare spenningen: Anthropic priser seg selv for transparens, men det er fortsatt ett selskap som definerer hva «gode verdier» betyr for en modell som brukes av hundrevis av millioner mennesker. Andre trekker frem at dette er vesentlig annerledes enn OpenAIs RLHF-tunge tilnærming — der mennesker aktivt dommer hver enkelt respons, lar Anthropic i stedet AI-en selv evaluere seg mot prinsippene (RLAIF). Det skalerer bedre, men gir også færre menneskelige kontrollpunkter underveis.

Noen i tråden er genuint imponerte. Dokumentets bredde — det trekker på FNs menneskerettighetserklæring, rettsteori og etisk filosofi — er ikke noe man ser fra et selskap som bare vil shippe raskere. Andre er mer skeptiske: Er dette egentlig alignment, eller er det branding? Kan et selskap virkelig «programmere inn» integritet?

Det er fortsatt tidlig. Dette er community-signaler, ikke peer-reviewed forskning. Men med 96 i buzzy score og en HN-tråd som ikke roer seg, er dette definitivt noe som vil dukke opp i mainstream-mediene om kort tid — sannsynligvis med langt mindre nyanse enn det fortjener.

Hold øye med hvordan OpenAI responderer, og om andre lab-er begynner å publisere tilsvarende dokument. Hvis dette blir en ny standard for åpenhet i AI-utvikling, endrer det spillereglene.

Kilde: Anthropic.com via HN AI Best. Early signal — ikke verifisert av uavhengige forskere enda.