En interaktiv artikkel publisert på Lobsters AI (arkaung.github.io) har satt fyr på AI-undergrunnen denne uken. Den bryter ned Googles TurboQuant-algoritme fra bunnen av, og tilsynelatende er det akkurat den tilgangen folk har ventet på — kommentarseksjonen fyller seg opp raskt med folk som plukker fra hverandre detaljene.

Så hva er greia? KV-cachen er en av de største minnebøllene i moderne LLM-inferens. Når du kjører lange kontekstvinduer, eksploderer minnebruken — og det er dyrt. TurboQuant angriper dette direkte ved å kvantisere nøkkel- og verdivektorene under selve inferensen, ikke bare vektene i modellen. Det er et annet og mer krevende problem, fordi du ikke har tid til å trene opp egne kodebøker for hvert datasett.

Tricket er elegant: algoritmen roterer input-vektorene tilfeldig før skalarkvantering, og bruker en én-bit QJL-transformasjon (Quantized Johnson–Lindenstrauss) på residualfeilen for å sikre unbiased inner product-estimering. Resultatet er en metode som er data-oblivious — den trenger ikke kjenne datasettet på forhånd, og kan kjøre online under inferens.

6x minnereduksjon, 8x raskere attention på H100 — og ingen merkbar kvalitetsnedgang. Hvis det holder i produksjon, er dette en stor deal.

Tallene er imponerende på papiret: ved 3,5 bits per kanal er kvaliteten nøytral sammenlignet med full presisjon. På "needle in a haystack"-tester med Llama 3.1 8B matcher komprimert TurboQuant den ukomprimerte baseline, med over 4x kompresjon. For enterprise-brukere betyr dette at eksisterende hardware kan håndtere vesentlig lengre kontekstvinduer — eller at man rett og slett kan kutte GPU-kostnader.

Det er imidlertid verdt å merke seg at noen i community-diskusjonene påpeker at TurboQuants kjernekvanteringsmetode har likheter med den tidligere introduserte EDEN-kvanteringsmetoden. Så hvor ny er egentlig nyheten? Det er en legitim diskusjon som pågår akkurat nå, og noe du bør følge med på før du trekker konklusjoner.

Dette er fortsatt et early signal fra community-kilder — den interaktive walkthroughen er ikke en fagfellevurdert artikkel, og de mest aggressive benchmarktallene er Googles egne. Uavhengig validering i produksjonsmiljøer gjenstår. Men signalet er sterkt nok til at det er verdt å følge med: hvis TurboQuant leverer i praksis, kan det fundamentalt endre kalkulasjonen rundt lange kontekstvinduer og LLM-driftskostnader.