Taalmodel ChatGPT wordt steeds dommer: dit vormt een risico voor gebruikers
In dit artikel:
AI-onderzoeker Toon Otten waarschuwt dat ChatGPT de laatste tijd steeds slechter Nederlands schrijft, waardoor bestaande taalachterstanden kunnen verergeren. Volgens Otten leidt de afnemende kwaliteit van het model in het Nederlands tot onnauwkeurige formuleringen en fouten die vooral kwetsbaarheden van taalvaardigheid bij leerlingen en mensen die op AI vertrouwen, versterken.
De waarschuwing speelt nu: gebruikers merken dat antwoorden minder vloeiend en soms grammaticaal onjuist zijn, terwijl AI-tools juist vaak worden ingezet om te leren, schrijven of vertalen. Mogelijke oorzaken zijn dat grote taalmodellen veel meer Engels dan Nederlands trainen, updates die algemene prestaties optimaliseren ten koste van kleinere talen, en beperkte, minder gevarieerde Nederlandse trainingsdata.
De gevolgen reiken naar onderwijs, professionele communicatie en digitale inclusie: scholieren kunnen slechte formuleringen overnemen, en niet-native speakers verliezen een betrouwbare hulpmiddelbron. Praktische adviezen zijn kritisch blijven, output altijd controleren met taalhulpmiddelen of moedertaalsprekers, prompts expliciet in goed Nederlands formuleren en, waar mogelijk, gespecialiseerde Nederlandse modellen of tools gebruiken. Ook is terugkoppeling naar ontwikkelaars belangrijk om de Nederlandse kwaliteit te verbeteren door meer en betere Nederlandse trainingsdata en fijnslijning voor de taal.