Studie: AI-bots geven in helft gevallen misleidend medisch advies
In dit artikel:
Onderzoekers uit de VS, Canada en het VK onderzochten de gezondheidsrisico’s van AI-gegenereerd medisch advies; de resultaten zijn recent gepubliceerd in BMJ Open. Vijf veelgebruikte chatbots (ChatGPT, Gemini, Meta AI, Grok en DeepSeek) kregen elk tien vragen verdeeld over vijf gezondheidscategorieën. Ongeveer de helft van alle antwoorden werd door de onderzoekers als problematisch beoordeeld; bijna 20% was zelfs zeer problematisch.
De systemen presteerden beter bij gesloten vragen en bij onderwerpen als vaccinatie en kanker, maar gaven vaker misleidende of onvolledige antwoorden op open vragen en bij thema’s als stamcellen en voeding. Antwoorden werden vaak met veel zelfvertrouwen gepresenteerd, terwijl geen enkele chatbot volledige en nauwkeurige bronvermeldingen kon leveren. De studie wijst op duidelijke veiligheidsrisico’s voor patiënten en benadrukt dat AI-advies kritisch gecontroleerd en door professionals geverifieerd moet worden.