Van AI chatbots met foute antwoorden naar gevaarlijke manuals

dinsdag, 28 oktober 2025 (08:26) - ITChannelPRO

In dit artikel:

Het EBU-onderzoek, uitgevoerd in 18 landen en in 14 talen met 3.000 vragen aan bekende chatbots, toont dat bijna de helft van de gegenereerde antwoorden onjuist is. Volgens berichtgeving van de NOS bleek in 45% van de gevallen iets mis; circa een derde van de antwoorden bevatte serieuze fouten vaak door gebruik van misleidende bronnen, en ongeveer 20% baseerde zich op verouderde informatie.

Die slechte kwaliteit van AI-output heeft concrete gevolgen, zeker wanneer mensen AI gebruiken om nieuws te volgen of wanneer IT-bedrijven AI-integraties leveren aan klanten. IT-organisaties zetten AI steeds vaker in voor development, support en documentatie, maar het EBU-rapport maakt duidelijk dat blind vertrouwen riskant is: oncontroleerde AI-uitvoer leidt onvermijdelijk tot fouten, reputatieschade en mogelijk juridische claims.

Redactionele ervaring van ITchannelPRO bevestigt dit beeld: van kromme bewoordingen in marketingmateriaal tot ernstige onjuistheden in handleidingen — fouten sluipen makkelijk in en blijven soms onopgemerkt. Een standaarddisclaimer in manuals zal aansprakelijkheid niet per se wegnemen als schadelijke beslissingen op foutieve AI-inhoud zijn gebaseerd.

Praktisch advies is om AI als hulpmiddel te zien, niet als autonome bron van waarheid: introduceer menselijke controle (human-in-the-loop), rigoureuze kwaliteitschecks, bronverificatie en updateprocessen. Alleen zo blijven organisaties de voordelen van AI benutten zonder onnodige risico’s te lopen.