Voor dit artikel gebruikte ik geen AI (dat moet u van me aannemen)
In dit artikel:
Afgelopen week leidde een publieke valkuil rond AI tot zelfonderzoek bij Follow the Money. De hoofdredacteur beschrijft hoe hij vorige week in Den Haag met collega-hoofdredacteuren sprak over de bedreigingen voor de journalistiek — digitalisering, big tech en vooral de snelle opkomst van kunstmatige intelligentie — tijdens een bijeenkomst van de commissie Journalistieke Vrijheid van de Raad voor Cultuur. Een opvallende afwezige was Peter Vandermeersch: hij moest zijn lidmaatschap opzeggen nadat bekend werd dat hij door AI aangemaakte citaten gebruikte in zijn columns, waarna zijn werkgever hem schorste.
Die casus zette de redactie van Follow the Money aan het denken: in hoeverre gebruiken zij zelf large language models zoals ChatGPT, Claude of Gemini voor samenvattingen en research, en welke risico’s kleven daaraan? Het artikel erkent dat journalisten AI-tools vaak inzetten omdat ze snel en efficiënt zijn bij het doorwerken van grote hoeveelheden documenten. Tegelijkertijd waarschuwt het voor het gevaar van fouten en reputatieschade; een collega vertelt bijvoorbeeld dat een foutieve rekensom van een chatbot leidde tot een forse overschatting — een blunder die schaamte en het besef van onvoldoende controle opriep.
Follow the Money benadrukt dat de kernoplossing ligt in traditionele journalistieke verification: altijd terug naar de oorspronkelijke bronnen, controleren van berekeningen en citaten, en dat de auteur primair verantwoordelijk blijft. Redacteuren die AI gebruiken, hebben methodes ontwikkeld om de antwoorden te verifiëren; sommige tools (zoals NotebookLM) helpen door bronnen expliciet te tonen. Als er twijfel blijft, worden brondocumenten aan hoofd- of eindredactie voorgelegd — checks and balances die volgens de hoofdredactie deel uitmaken van het dna van de redactie. Ter afsluiting meldt de auteur dat dit stuk bewust zonder AI-hulp is geschreven.