Wat als je eigen AI-kloon straks bepaalt of je 'stekker' eruit mag?
In dit artikel:
Een Amerikaanse onderzoeker ontwikkelt een digitaal “AI‑kloon” dat in acute zorgsituaties kan helpen inschatten wat een patiënt zou willen als die zelf niet kan beslissen — bijvoorbeeld of beademing gestopt moet worden. Muhammad Aurangzeb Ahmad en zijn team werken in de trauma‑afdeling van de Universiteit van Washington aan een concept voor zo’n surrogaat, maar het project zit nog in een heel vroeg stadium en wordt nog niet in ziekenhuizen getest.
Het model wordt gevoed met medische gegevens (ziektegeschiedenis, ernst van de situatie), eerdere medische keuzes, demografische informatie en mogelijke gesprekken tussen patiënt en arts; familieleden zouden ook context kunnen aanleveren, bijvoorbeeld door WhatsApp‑berichten te delen. Het doel is dat de AI in minstens twee derde van de gevallen correct voorspelt wat de patiënt gewild zou hebben. Een groot praktisch probleem is echter dat je het slechts echt kunt controleren als de patiënt overleeft en kan bevestigen dat de AI goed zat.
Er kleven veel ethische en technische bezwaren aan het idee. Kritieken richten zich op de betrouwbaarheid van algoritmes bij levens‑en‑dood‑beslissingen, privacy en het risico dat mensen zonder familie of spreekbekwame vertegenwoordigers door een foutief AI‑advies benadeeld worden. Daarnaast wisselen patiënten zelf vaak van mening en hebben AI‑systemen blinde vlekken die moeilijk te ondervangen zijn. Ahmad benadrukt dat er altijd een mens in de besluitvorming moet blijven en dat implementatie waarschijnlijk nog jaren — mogelijk een decennium — zal duren als het al doorgaat.
Kortom: het concept kan familie en artsen ondersteunen bij lastige end‑of‑life‑keuzes wanneer directe wilsuiting ontbreekt, maar vereist grondige toetsing, transparantie en sterke menselijke controle voordat het in de praktijk inzetbaar is.