To nye lettmodeller fra OpenAI

OpenAI presenterte 17. mars 2026 sine to nye kompaktmodeller, GPT-5.4 mini og GPT-5.4 nano. Ifølge selskapet selv er dette de mest kapable småmodellene de har utgitt til nå, optimalisert for koding, verktøybruk, multimodal resonering og høyvolums API-arbeidsflyter.

Begge modellene er slankere og raskere varianter av den allerede lanserte GPT-5.4, og er spesielt innrettet mot sub-agent-oppgaver og utviklerbruk i stor skala.

GPT-5.4 mini er mer enn dobbelt så rask som GPT-5 mini og nærmer seg ytelsen til fullmodellen på sentrale benchmarks

GPT-5.4 mini: Nær fullmodell-ytelse til lavere kostnad

Den største av de to nykomlingene, GPT-5.4 mini, scorer 54,4 prosent på SWE-Bench Pro – en anerkjent målestokk for kodeagenter. Til sammenlikning oppnår fullmodellen GPT-5.4 57,7 prosent, mens den eldre GPT-5 mini lå på 45,7 prosent. På OSWorld-Verified, som tester agenters evne til å operere datamaskiner, lander mini på 72,1 prosent mot fullmodellens 75,0 prosent, ifølge OpenAI.

Modellen støtter tekst- og bildeinput, funksjonskalling, nettsøk, filsøk og datamaskinstyring via API-et. Kontekstvinduet er på 400 000 tokens, med et maksimalt output på 128 000 tokens. Kunnskapsavskjæringen er satt til 31. august 2025.

I Codex-plattformen bruker GPT-5.4 mini kun 30 prosent av GPT-5.4-kvoten, noe som i praksis gir tilgang til kodeassistanse til omtrent en tredjedel av prisen.

54,4 %
SWE-Bench Pro (mini)
72,1 %
OSWorld-Verified (mini)
GPT-5.4 mini er dobbelt så rask – og koster en tredjedel

GPT-5.4 nano: Ultralav pris for høyvolum

Den minste modellen, GPT-5.4 nano, er utelukkende tilgjengelig via API og er designet for oppgaver der hastighet og kostnad veier tyngst – som klassifisering, datauttrekk, rangering og enkle sub-agent-funksjoner uten behov for flertrinnresonnering.

Tross sin kompakte størrelse scorer nano 52,4 prosent på SWE-bench Pro, noe som faktisk overgår GPT-5 minis 45,7 prosent. Det er verdt å merke seg at disse benchmarktallene stammer fra OpenAI selv, og uavhengig verifisering foreligger ikke på publiseringstidspunktet.

GPT-5.4 nano koster bare en tolvtedel av fullmodellen per output-token
GPT-5.4 mini er dobbelt så rask – og koster en tredjedel

Prisoversikt og tilgjengelighet

GPT-5.4 mini er tilgjengelig via OpenAI API, Codex og ChatGPT. I ChatGPT kan gratis- og Go-brukere benytte modellen gjennom «Thinking»-funksjonen i plussmeny-et, og den fungerer også som reservemodell ved ratebegrensning på GPT-5.4 Thinking for andre abonnenter. GPT-5.4 nano er foreløpig kun tilgjengelig via API.

Hva dette betyr for utviklere

Med disse to modellene prøver OpenAI å dekke et voksende behov i markedet: utviklere som ønsker moderne modellkapabilitet – særlig innen koding og agentarbeidsflyter – uten å betale for full GPT-5.4-kapasitet på alle forespørsler.

Kombinert med det store kontekstvinduet på 400 000 tokens og støtte for multimodalt input, fremstår GPT-5.4 mini som et attraktivt alternativ for produksjonssystemer der både ytelse og driftskostnader teller. Nano fyller et annet behov: klassifisering og enkle ekstraksjonsoppgaver i industriell skala, der prisen per token er avgjørende.

OpenAI-plattformen kjøres på Microsoft Azure, og all API-tilgang krever API-nøkkel opprettet gjennom OpenAI-dashbordet.