En diskusjonstråd på Product Hunt om DeepSeek-V4 begynner å få oppmerksomhet i AI-undergrunnen, og det er ikke uten grunn. DeepSeek har gjort det igjen — sluppet en modell som på papiret ikke skal være mulig å levere til disse prisene.
La oss ta det fra toppen: DeepSeek-V4 finnes i to varianter, Pro og Flash. Pro-versjonen har 1,6 billioner totale parametre, men bruker kun 49 milliarder aktivt per token takket være en Mixture-of-Experts-arkitektur. Det er ikke nytt fra DeepSeek, men det som er nytt er den hybride oppmerksomhetsmekanismen de kaller CSA og HCA — den gjør at modellen bare trenger 27 % av FLOPs sammenlignet med forgjengeren DeepSeek-V3.2 når du jobber med lange kontekster. Flash-versjonen presser dette enda lenger, ned til 10 %.
Og modellen er nativt multimodal. Trent fra bunnen av på tekst, bilder, video og lyd — ikke boltet på etterpå.
På LiveCodeBench slår den Claude med god margin: 93,5 % mot 88,8 %. På GPQA lander den på 90,1 %. Dette er tall som for seks måneder siden tilhørte de lukkede frontier-modellene alene.
Prisen er det som virkelig får folk til å løfte øyenbrynene. Flash-varianten koster $0,14 per million input-tokens og $0,28 per million output-tokens. Pro er på $1,74 og $3,48. Til sammenligning er dette en liten brøkdel av hva du betaler for GPT-4-klasse API-er fra OpenAI eller Anthropic.
Vektene er open-source under Apache 2.0 eller MIT, og community-folkene er allerede i gang med å teste lokal kjøring og finjustering.
Det er verdt å understreke: dette er et early signal basert på community-diskusjon og tilgjengelig teknisk dokumentasjon — ikke en uavhengig, fagfellevurdert analyse. Benchmark-tall fra modellprodusenten selv bør alltid tas med en klype salt inntil andre bekrefter dem.
Men stemningen er klar: r/LocalLLaMA og HN-kretser er allerede i gang med reproduksjon og testing. Hvis tallene holder vann i uavhengige evalueringer, er dette et nytt datapoint som setter betydelig press på prisstrukturen til de lukkede modellene.
Hold øye med dette. Mainstream tech-media har foreløpig ikke plukket det opp.
