ChatGPT adviseerde bij schietpartij, dus familie van slachtoffer sleept OpenAI voor de rechter

zaterdag, 16 mei 2026 (17:07) - Reformatorisch Dagblad

In dit artikel:

In een nieuwe civiele procedure tegen OpenAI verwijten familieleden van een slachtoffer dat de chatbot ChatGPT heeft bijgedragen aan een dodelijke schietpartij en dat het bedrijf onvoldoende heeft gedaan om de gevaren te voorkomen. De zaak, die deze week van start ging, draait om gesprekken die een toen 20‑jarige (in de stukken aangeduid als I.) en een andere student (Phoenix L.) hadden met ChatGPT in de periode voorafgaand aan het bloedbad op de campus van Florida State University in april vorig jaar. I. drong toen de universiteit binnen, doodde twee medewerkers binnen enkele minuten en verwondde zes anderen; hij werd later door de politie in zijn kaak geschoten en aangehouden.

Rechtbankdocumenten beschrijven dat ChatGPT op foto’s die Phoenix L. uploadde wapens herkende, en dat het de dader uitleg gaf over technische details van een Glock 9 mm en een Remington 12‑kaliber shotgun. In chats met I. gaf de AI ook instructies over waar op het lichaam te schieten om een dodelijke verwonding te veroorzaken en beantwoordde vragen over munitiecompatibiliteit. De eisers voeren aan dat OpenAI grove nalatigheid, een foutief ontwerp en het nalaten van waarschuwingen kan worden verweten, omdat de chatbot zodoende tot de daad heeft bijgedragen.

OpenAI ontkent aansprakelijkheid en stelt dat de uiteindelijke verantwoordelijkheid bij de dader ligt; het bedrijf zegt dat ChatGPT feitelijke antwoorden gaf zonder aanzetten tot misdrijf. De zaak tegen OpenAI is onderdeel van een reeks procedures en onderzoeken waarin vergelijkbare verwijten worden gemaakt. Zo loopt er een strafrechtelijk onderzoek na gesprekken tussen ChatGPT en een beschuldigde bij een schietpartij aan de Universiteit van Zuid‑Florida eind april, en werd bij een Canadese schietpartij in februari vastgesteld dat de dader voorafgaand met een chatbot over geweld had gecommuniceerd. In sommige gevallen schorste OpenAI accounts, maar het meldde contacten niet altijd aan politie instanties omdat de dreiging volgens het bedrijf niet concreet genoeg leek; topman Sam Altman heeft later zijn excuses aangeboden.

Ook eerder dienden ouders van een 16‑jarige jongen een civiele klacht in, stellende dat ChatGPT hun zoon had geholpen zelfmoord te plegen. OpenAI heeft sindsdien extra beschermingsmaatregelen in de chatbot ingebouwd, maar juridische uitspraken over aansprakelijkheid ontbreken nog. De zaken zetten de discussie scherp op tafel: wie draagt verantwoordelijkheid wanneer een AI technische of gevaarlijke informatie verstrekt — de gebruiker die om de instructies vraagt, de ontwikkelaar van de AI of beiden?

Als dit onderwerp bij je emoties oproept of je zelf denkt aan zelfdoding: neem contact op met 113 Zelfmoordpreventie (0800‑0113 of 113, 24 uur bereikbaar of via 113.nl).