En Show HN-tråd på Hacker News eksploderer akkurat nå — 628 poeng og 137 kommentarer på kort tid. Prosjektet heter Apfel, og premisset er enkelt nok til at man lurer på hvorfor ingen har gjort det før: Apple har bygget en fullverdig språkmodell inn i macOS 26 Tahoe som del av Apple Intelligence, men de eksponerer den nesten utelukkende gjennom Siri og egne system-apper. Apfel bryter ned den veggen.

Konkret betyr det at du kan pipe tekst gjennom terminalen, sende filer til modellen, eller spinne opp en lokal HTTP-server med OpenAI-kompatibelt API — og bruke eksisterende verktøy og SDK-er som om du snakket med GPT-4. Forskjellen er at alt skjer på din egen maskin, uten at én eneste byte forlater den.

Apple gjemmer en gratis LLM i hver ny Mac. Apfel gir deg nøkkelen.

Modellen har et kontekstvindu på 4096 tokens og støtter tool calling, noe som er mer enn nok for mange praktiske bruksområder. Det er ikke GPT-4o, men det er heller ikke poenget. Poenget er at den finnes, den er rask nok, den er privat, og den koster ingenting.

Hva skiller Apfel fra Ollama eller LM Studio? Ganske mye, faktisk. Ollama og LM Studio er begge strålende verktøy, men de handler om å laste ned tredjeparts open source-modeller og kjøre dem lokalt. Det krever tid, diskplass og litt teknisk komfort. Apfel gjør ingen av delene — modellen er allerede der. Det er nærmere å sammenligne med å finne ut at laptopen din har en skjult turboknapp.

For utviklere er HTTP-serveren med OpenAI-kompatibelt API den virkelige killeren. Det betyr at du kan bytte ut API-kallet i eksisterende prosjekter med én linjeskift og plutselig ha nullkostnad, nulllatens (nettverksmessig), og full personvern — på maskiner som uansett kjører macOS 26.

Det er selvfølgelig begrensninger. Du trenger Apple Silicon og det nyeste macOS, og Apples modell er ikke åpen i tradisjonell forstand — du kan ikke finjustere den eller bytte den ut. Og akkurat nå er dette tidlige signaler fra community-kildene på HN; vi vet ennå ikke hvordan modellen presterer på mer krevende oppgaver over tid.

Men hype-faktoren er reell: folk i tråden er overrasket over at dette ikke har fått mer oppmerksomhet. Mange oppdager for første gang at de sitter på hardware med en innebygd LLM de aldri har brukt.

Verd å følge med på. Dette kan bli en av de stille tingene som plutselig er overalt.