En produktside for Lyria 3 Pro by Google DeepMind dukket opp på Product Hunt denne uken, og det har ikke gått stille for seg. Bred utrulling startet 25. mars, og tidlige brukere er allerede i gang med å teste grensene.

Hvorfor er dette interessant? Jo, fordi AI-musikk lenge har vært den morsomme lillebroren som aldri helt holdt mål. Suno og Udio har vist at det lar seg gjøre, men tre minutter med faktisk musikalsk struktur — ikke bare loopet støy med vokal oppå — det er et annet nivå.

Det som skiller Lyria 3 Pro fra forgjengerne er det Google kaller "structural awareness". Modellen skjønner ikke bare at musikk finnes, den skjønner hvordan musikk er bygd opp. Du kan prompte den til å lage en bestemt intro, gå over i et vers, eskalere mot et refreng og lande på en bridge. Det høres banalt ut til du innser at dette er nøyaktig det konkurrentene ikke har fått til på en pålitelig måte.

I tillegg støtter den bilde som input — last opp et bilde og be om musikk som matcher stemningen. Output er 48kHz stereo, og alt er merket med SynthID, Googles AI-vannmerke.

Tre minutter med prompt-styrbar musikkstruktur til åtte cent per sang er et reelt sprang — ikke bare et marketingsprang.

For utviklere er prisen aggressiv: lyria-3-pro-preview via Vertex AI koster $0.08 per sang. Det gjør det realistisk å bygge faktiske produkter oppå dette uten å blø penger.

Noe å være klar over: Dette er fortsatt early signals fra community-kilder og produktsiden. Vi vet ikke ennå hvordan det faktisk låter over tid, om strukturforståelsen holder i kanttilfeller, eller hva slags begrensninger Google har lagt inn rundt artistlikhet og opphavsrett. Google sier selv at modellen ikke etterlikner spesifikke artister og filtrerer mot eksisterende innhold — men det er påstander som trenger uavhengig testing.

Mainstream tech-media har ikke kastet seg over dette ennå. Men gitt at Product Hunt-siden allerede trekker oppmerksomhet og API-en er åpen for testing, er det bare et tidsspørsmål. Musikk-AI er akkurat nå i den fasen bildegenerering var i 2022 — rett før alle plutselig skjønte hva som faktisk skjedde.

Hold øye med r/AIMusic og r/LocalLLaMA de neste dagene. Hvis strukturen faktisk fungerer som lovet, kommer demosene til å flomme inn.