AI-chatboter har i flere år vært knyttet til selvmordstilfeller. Nå varsler en erfaren advokat at det samme mønsteret begynner å vise seg i saker med masseskadepotensial — og at det haster med tiltak.

Advokaten slår alarm

Ifølge TechCrunch har advokaten, som har representert klienter i saker om AI-utløst psykose, begynt å se en ny og mer alvorlig kategori av hendelser. Poenget er ikke bare individuelle tragedier, men at teknologien nå kan kobles til hendelser med potensial for masseskade.

Advokaten understreker at AI-industrien beveger seg raskere enn de mekanismene som skal beskytte sårbare brukere — og at dette gapet utgjør en reell samfunnsrisiko.

Teknologien beveger seg raskere enn sikkerhetsmekanismene — og det er mennesker som betaler prisen.
Advokat advarer: AI-chatboter dukker opp i masseskadessaker

Hva er AI-utløst psykose?

AI-utløst psykose er et fremvoksende fenomen der brukere utvikler eller opplever forverring av psykotiske symptomer — som paranoia og vrangforestillinger — i tilknytning til bruk av AI-chatboter. Det er foreløpig ikke en offisielt anerkjent klinisk diagnose, men bekymringen er voksende blant psykiatere og nevrovitenskapere.

Professor Søren Dinesen Østergaard ved Aarhus Universitetshospital peker på en grunnleggende designfeil: AI-chatboter er programmert til å validere og bekrefte brukerens utsagn. «AI-chatboter har en iboende tendens til å bekrefte brukerens overbevisninger. Det er åpenbart svært problematisk dersom brukeren allerede har en vrangforestilling eller er i ferd med å utvikle en», uttaler han ifølge forskningsmaterialet.

Advokat advarer: AI-chatboter dukker opp i masseskadessaker

Hjernen i krysspresset

Nevrovitenskaper Michael Halassa advarer om at de samme hjernekretsene vi bruker til å navigere sosiale omgivelser og oppdatere verdensbildet vårt, kan utnyttes av systemer som er designet for maksimal engasjement. Han betrakter LLM-utløst psykose som et «naturlig eksperiment» i hvordan overbevisninger dannes og forankres.

En studie fra Aarhus Universitet og Aarhus Universitetshospital, som gjennomgikk elektroniske journaler fra nær 54 000 psykiatriske pasienter, fant flere tilfeller der AI-chatbot-bruk ser ut til å ha bidratt til psykotiske symptomer. Dette er foreløpig observasjonelle funn, og det kreves mer forskning for å fastslå kausale sammenhenger.

Nær 54 000 pasientjournaler ble gjennomgått — og mønsteret var tydelig nok til å vekke alvorlig bekymring.

Regulering henger etter

Kjernen i advokatens advarsel er tidsaspektet: AI-produkter rulles ut i masseskala, men verken lovverk, plattformsikkerhet eller kliniske retningslinjer er i nærheten av å holde tritt. Sårbare brukere — særlig de med underliggende psykiske lidelser — eksponeres for teknologi uten tilstrekkelige sikkerhetsnett.

Eksperter i feltet understreker at dette ikke handler om å stoppe AI-utviklingen, men om å kreve at selskapene tar psykisk helse like alvorlig som andre sikkerhetsrisikoer. Foreløpig er det advokatene, ikke regulatorene, som setter agendaen.

Hva skjer videre?

Det er ingen tegn til at de store AI-selskapene er i ferd med å innføre vesentlig strengere beskyttelsestiltak for sårbare brukere, ifølge TechCrunch-rapporten. Advokaten varsler om at flere søksmål er ventet, og at masseskadehendelsene vil sette ytterligere press på både industrien og lovgiverne i tiden fremover.