Je medisch dossier inladen in nieuwe functie ChatGPT? „Denk 10.000 keer na"

vrijdag, 16 januari 2026 (21:07) - Reformatorisch Dagblad

In dit artikel:

Universiteitshoogleraar Natali Helberger waarschuwt gebruikers nadrukkelijk: „denk 10.000 keer na” voordat je medische gegevens in ChatGPT Health zet. OpenAI kondigde vorige week deze nieuwe gezondheidsfunctie aan, bedoeld als aparte chatomgeving waarin mensen apps (zoals Apple Health of Strava) en medische dossiers kunnen koppelen. De functie wordt eerst in de Verenigde Staten uitgerold; aanmelden gebeurt via een wachtlijst en uitbreiding naar Europa is gepland.

Waarom OpenAI dit doet: gezondheid is al een veelgevraagd onderwerp in gewone ChatGPT-gesprekken, en de techgigant lijkt met ChatGPT Health te mikken op een lucratieve markt voor AI in de zorg. Volgens OpenAI zijn er extra beveiligingslagen en speciale versleuteling toegepast en zouden gesprekken binnen ChatGPT Health niet gebruikt worden om de modellen te trainen. Ook laat het bedrijf weten dat het model getoetst is aan door artsen opgestelde criteria en goed presteert bij taken als het uitleggen van laboratoriumuitslagen of het voorbereiden van vragen voor een consult.

Desondanks klinken forse kritische noten van privacy- en ethiekexperts. Helberger wijst op tegenstrijdigheden: OpenAI faciliteert koppelingen met apps maar geeft niet duidelijk aan welke gegevens worden uitgewisseld of hoe verbindingen tussen verschillende databronnen worden gebruikt. Omdat medische dossiers zeer gevoelige informatie bevatten en gegevens vaak in de VS worden opgeslagen — waar regelgeving minder streng kan zijn dan in Europa — pleit ze voor grote terughoudendheid en raadt ze mensen af dergelijke informatie te uploaden.

Ook hoogleraar gezondheidsethiek Maartje Schermer benadrukt de onbetrouwbaarheid van taalmodellen: deze systemen voorspellen het meest waarschijnlijke volgende woord en kunnen daardoor fouten maken die in medische context ernstige gevolgen hebben (bijvoorbeeld een fout in dosering). Ze wijst erop dat het gevaar bestaat dat patiënten eerst ChatGPT raadplegen en het advies zwaarder laten wegen dan dat van hun huisarts, of zelfs verzwijgen dat ze een chatbot hebben geraadpleegd. Schermer benadrukt dat betrouwbare, gratis medische informatie al beschikbaar is in Nederland (bijv. thuisarts.nl), en dat ChatGPT geen structurele oplossing is voor mensen zonder toegang tot reguliere zorg.

Juridisch neerkomt het er volgens Helberger op dat de gebruiksvoorwaarden ChatGPT ontzien: antwoorden mogen niet gebruikt worden voor medische beslissingen, waardoor OpenAI zich juridisch indekt terwijl artsen wel aanspreekbaar zijn voor hun adviezen. Beide experts vinden dat toezichthouders en privacybeschermers scherp moeten meekijken bij uitrol en praktijkgebruik.

Kortom: ChatGPT Health biedt nieuwe mogelijkheden voor interactie met gezondheidsinformatie en integratie van persoonlijke data, maar roept serieuze vragen op over privacy, aansprakelijkheid en betrouwbaarheid. Voorlopig advies van de experts: geen medische dossiers uploaden en voorzichtig zijn met het blindelings vertrouwen op AI-advies.