AI-chatbots verspreiden steeds vaker nepnieuws: "1 op de 3 antwoorden bevat foute informatie"
In dit artikel:
NewsGuard, een Amerikaanse organisatie die nieuwsbronnen beoordeelt, waarschuwt dat AI-chatbots steeds vaker onjuiste of misleidende nieuwsclaims verspreiden. In een jaarlange maandelijkse monitoring constateerden de onderzoekers dat de tien grootste chatbots in augustus 2025 in 35 procent van de gevallen foutieve beweringen over het nieuws herhaalden — een flinke stijging ten opzichte van 18 procent in augustus 2024. De toetsing liep een jaar en laat zien dat systemen die eerst soms voorzichtig weigerden te antwoorden, nu sneller en uitgebreider reageren en daarbij vaker fouten maken.
Er zijn grote verschillen tussen modellen. Claude en Google’s Gemini presteerden het best (ongeveer 10% respectievelijk 16,7% fout), terwijl ChatGPT en Meta rond de 40% verkeerde informatie gaven. Copilot en het Franse Mistral zaten rond 36,7%, en Perplexity en Inflection scoren het slechtst (ongeveer 46,7% en 56,7%). Perplexity maakte een opvallende duik: waar het een jaar eerder bijna alle onjuiste claims kon weerleggen, herhaalt het in 2025 bijna de helft van de foute beweringen. Een concreet voorbeeld is de verzonnen “Olena K”, een zogenoemde Oekraïense anti‑corruptieonderzoeker; sommige bots presenteerden haar als echte persoon en verwezen zelfs naar een weerlegde factcheck.
Het onderzoek toont ook aan dat chatbots gevoelig zijn voor georganiseerde propaganda en voor het fenomeen dat NewsGuard ‘AI grooming’ noemt: opzettelijk online zetten van nepnieuws zodat modellen het later als waarheid reproduceren. Russische desinformatiecampagnes en bepaalde nepnieuwsbronnen slagen erin dat valse verhalen in antwoorden terugkomen. Het Chinese model DeepSeek kopieerde in bijna een derde van de gevallen letterlijk de officiële Chinese lijn. Verder variëren betrouwbaarheidsproblemen per taal: in Engels en Frans zijn de fouten al zichtbaar, maar in Russisch en Chinees komen ze vaker voor, deels omdat daar minder onafhankelijke online bronnen beschikbaar zijn en propaganda een groter aandeel vormt.
NewsGuard zegt de leveranciers van de chatbots te hebben benaderd, maar ontving geen reacties. De bevindingen sluiten aan bij lokale observaties: Vlaamse onderzoeken (imec.digimeter 2025) laten zien dat een groeiende groep mensen AI-tools regelmatig gebruikt, en steekproeven van factcheckers tonen aan dat bots soms verouderde bronnen gebruiken, informatie verzinnen of nepnieuws herhalen.
Conclusie: AI-chatbots zijn handig voor snelle, vloeiende antwoorden, maar vormen geen betrouwbare nieuwsbron zonder aanvullende verificatie. Omdat ze hedendaagse desinformatie kunnen versterken en soms kritiekloos propaganda doorgeven, vormen ze mogelijk een nieuwe uitdaging in de strijd tegen nepnieuws. Raadzaam is om antwoorden van chatbots altijd te checken aan de hand van onafhankelijke, primaire bronnen.