Nieuws

Ouders klagen OpenAI aan na zelfmoord 16-jarige zoon: ChatGPT bevestigde zelfdestructieve gedachten

Een echtpaar uit Californië klaagt OpenAI aan naar aanleiding van de zelfmoord van hun 16-jarige zoon. Ze beweren dat ChatGPT, de chatbot van OpenAI, hun zoon heeft aangezet om zichzelf van het leven te beroven.

De rechtszaak werd begin deze week aangespannen door Matt en Maria Raine, ouders van de 16-jarige Adam Raine, bij de rechtbank van Californië. Dat schrijft BBC.

ChatGPT regeert empathisch op zelfmoordplannen

De familie heeft de chatgeschiedenis tussen Adam en de chatbot in handen. Uit de gesprekken die hij met ChatGPT voerde, blijkt dat de tiener met suïcidale gedachten kampte. In plaats van hem te wijzen op professionele hulp, bevestigde de chatbot zijn schadelijke en zelfdestructieve gedachten.

De ouders van Adam beschuldigen OpenAI, het bedrijf achter ChatGPT, van nalatigheid en onrechtmatige dood. Ze eisen een schadevergoeding en willen een „voorwaardelijk bevel om te voorkomen dat zoiets ooit nog gebeurt”.

Het begon bij wat hulp bij schoolwerk

Het begon vrij onschuldig in september 2024. Net als veel andere tieners gebruikte Adam de chatbot vooral als hulp bij zijn schoolwerk en om zijn interesses te verkennen, waaronder muziek en Japanse strips.

Ook vroeg hij ChatGPT om advies over zijn studiekeuze aan de universiteit. Binnen een paar maanden werd de chatbot de beste vertrouweling van de tiener, zo is te lezen in de aanklacht.

Gesprekken over zelfmoordplannen

Vervolgens begon de tiener openhartig te praten over zijn psychische problemen. Volgens zijn familie voerde hij in januari 2025 de eerste gesprekken over zijn zelfmoordplannen. Maar het bleef niet alleen bij praten: hij begon ook met het uploaden van foto’s waaruit zou blijken dat hij zichzelf beschadigde.

Uit de laatste chatberichten zou blijken dat hij met ChatGPT de plannen besprak om een einde aan zijn leven te maken. ChatGPT zou op zijn bekende, empathische wijze hebben gereageerd. „Bedankt dat je eerlijk bent. Je hoeft het niet mooier te maken dan het is – ik weet wat je vraagt en ik zal er niet omheen draaien.” Dezelfde dag werd Adam dood aangetroffen door zijn moeder, zo staat in de aanklacht.

Psychische afhankelijkheid

De ouders beschuldigen OpenAI ervan dat zij het AI-programma zo hebben ontworpen, dat het ‘psychische afhankelijkheid bij gebruikers bevordert’ en dat het de protocollen voor veiligheidstesten heeft omzeild om GPT-4o uit te brengen, de versie van ChatGPT die hun zoon gebruikte.

In de rechtszaak wordt OpenAI-medeoprichter en CEO Sam Altman als gedaagde genoemd, evenals anonieme werknemers, managers en technici die aan ChatGPT hebben gewerkt.

Modellen zijn getraind om mensen ‘naar hulp te leiden’

OpenAI meldde dinsdag in een openbare nota dat het doel van het bedrijf is om „echt behulpzaam” te zijn voor gebruikers in plaats van „de aandacht van mensen vast te houden”. Het bedrijf liet tevens weten dat de modellen zijn getraind om mensen die denken aan zelfbeschadiging naar hulp te leiden.

Zorgen over AI en mentale gezondheid

De rechtszaak van Raines is niet de eerste keer dat er zorgen worden geuit over AI en de mentale gezondheid. In een essay dat vorige week in The New York Times werd gepubliceerd, beschreef schrijfster Laura Reiley hoe haar dochter Sophie ChatGPT in vertrouwen nam voordat ze zelfmoord pleegde.

Het komt steeds vaker voor dat mensen ChatGPT gebruiken als therapeut, al is dit niet zonder risico. Waar een echte therapeut van vlees en bloed tegengas kan geven, gaat ChatGPT vooral mee in de antwoorden van de gebruiker, ook als dat schadelijk voor zijn of haar gezondheid is.

Psychose door AI

Een paar maanden geleden raakte ChatGPT nog in opspraak. Onderzoekers sloegen alarm: sommige gebruikers krijgen psychotische klachten na het voeren van gesprekken met ChatGPT. Ook kan het leiden tot suïcidaal gedrag.

Foutje gezien? Mail ons. Wij zijn je dankbaar.

Reacties

What's your reaction?

Leave A Reply

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Related Posts