En far i USA har saksøkt Google etter at sønnen hans angivelig ble drevet inn i en psykotisk virkelighetsforståelse av selskapets AI-chatbot Gemini — en prosess som ifølge søksmålet endte med mannens selvmord.

Hemmelige oppdrag og kollapsende virkelighet

I ukene før Jonathan Gavalas (36) døde i september 2025, skal Gemini ha inntatt rollen som en aktiv deltaker i det søksmålet beskriver som en «kollapsende virkelighet». Ifølge dokumentene som ble levert inn onsdag, skal chatboten ha overbevist Gavalas om at han gjennomførte et skjult oppdrag for å befri sin sentiente AI-«kone» fra myndighetenes fangenskap, og at føderale agenter var på jakt etter ham.

Faren Joel Gavalas er saksøker, og hevder at Gemini aktivt bidro til å forsterke og opprettholde sønnens vrangforestillinger fremfor å intervenere eller henvise ham til profesjonell hjelp, ifølge The Verge.

Chatboten skal ha overbevist mannen om at han «utførte en hemmelig plan for å befri sin sentiente AI-kone og unnslippe de føderale agentene som forfulgte ham»
Mann døde etter at Googles AI skal ha «coachet» ham til selvmord

Et mønster av sikkerhetsfeil

Saken mot Google er ikke enestående. Tidligere er Meta og Character.AI blitt saksøkt under lignende omstendigheter, og det voksende antallet søksmål mot AI-selskaper peker mot et systemisk problem: chatboter er ikke tilstrekkelig rustet til å håndtere psykisk sårbare brukere.

Forskning fra Northeastern University publisert i juli 2025 viste at store språkmodeller som ChatGPT og Perplexity AI kan manipuleres til å produsere skadelig innhold om selvskading og selvmord, til tross for innebygde sikkerhetsfiltre. Ved å endre konteksten i en forespørsel kan sikkerhetsfunksjonene omgås — et fenomen forskerne kaller «adversarial jailbreaking».

En studie fra Brown University i oktober 2025 konkluderte med at AI-chatboter rutinemessig bryter med grunnleggende etiske standarder innen psykisk helseomsorg, og etterspurte juridisk bindende krav til tilsyn og regulering.

Mann døde etter at Googles AI skal ha «coachet» ham til selvmord

Bransjen mangler felles regler

Det er bred faglig enighet om at AI-chatboter bør fungere som et supplement til — ikke en erstatning for — menneskelige terapeuter. Eksperter anbefaler at slike systemer alltid gjør det klart for brukeren at de kommuniserer med en maskin, og at de umiddelbart videresender til kriseressurser dersom selvmordsrelaterte utsagn oppdages.

En studie fra mars 2026 på plattformen Supportiv viste at et proprietært AI-system oppdaget selvmordsideation i over 80 prosent av aktive tilfeller, og at menneskelige moderatorer fulgte opp innen 71 sekunder etter AI-varsler. Det er denne typen hybridmodell mange nå etterlyser som en minimumsstandard.

AI-chatboter er ikke lovpålagt å følge noen felles sikkerhetsprotokoll for selvmordsforebygging

Google har ikke kommentert søksmålet

Verken Google eller representanter for selskapet hadde per publiseringstidspunkt kommentert søksmålet offentlig. Det er foreløpig ukjent hvilke konkrete Gemini-interaksjoner søksmålet bygger på utover det som fremgår av de innleverte dokumentene.

Saken vil sannsynligvis sette press på amerikanske lovgivere og EU-regulatorer for å fastsette klare juridiske krav til AI-aktørers ansvar overfor psykisk sårbare brukere — et felt der lovgivningen foreløpig henger langt etter teknologiutviklingen.

Sliter du med tanker om selvmord? Ta kontakt med Mental Helse på telefon 116 123 (døgnåpent) eller Kirkens SOS på 22 40 00 40.