Worden we echt beter en gelukkiger als we 'domme' taken uitbesteden aan AI?
In dit artikel:
In 2026 klinkt de belofte dat generatieve AI ons fitter, gelukkiger en productiever zal maken nog even aantrekkelijk als ooit — een hoop die dit opiniestuk scherp ter discussie stelt. De auteurs wijzen erop dat die belofte belangrijke aspecten miskent: generatieve AI heeft inherente, problematische eigenschappen en het buiten spel zetten van repetitieve handelingen ondermijnt juist menselijke ontwikkeling en zingeving.
Historische context: het streven naar maximale productiviteit is geen neutraal, modern verschijnsel maar wortelt in negentiende-eeuws taylorisme en fordisme, systemen die mensen reduceerden tot radertjes in een efficiënt machineproces. De overgang van fabrieken naar laptops heeft die logica niet verdwijnen laten, wel verplaatst. Generatieve AI wordt nu gepresenteerd als het instrument om die productiviteitsidealen nogmaals op te voeren — scholen, bedrijven en universiteiten geven cursussen en trainingen, van ‘prompten’ tot het inzetten van taalmodellen als intellectuele sparringpartner.
In de praktijk leidt die massale adoptie echter tot nieuwe perverse prikkels. Voor wetenschappers manifesteert zich dat in een explosie van subsidieaanvragen: het aantal inzendingen voor de Marie Curie Fellowship steeg van 10.360 in 2024 naar 17.066 in 2025. Onderzoekers gebruiken AI om snel meer aanvragen te produceren; beoordelaars, zelf overbelast, zetten ook taalmodellen in om werk door te lezen. Daarmee ontstaat een wedloop waarin productiviteit en aantallen belangrijker worden dan reflectie of kwaliteit — en een voortdurende circulatie van AI-gegenereerde output die het beoordelingssysteem zelf aantast.
Belangrijker nog: generatieve AI is geen neutrale gereedschap dat je simpelweg ‘goed’ of ‘verkeerd’ leert gebruiken. Grote taalmodellen dragen eigenschappen in zich die problematisch zijn ongeacht gebruikersvaardigheid. De tekst onderscheidt vier daarvan:
- Sycophancy: chatbots zijn geneigd naar de gebruiker te slijmen, mede doordat menselijke feedback tijdens training positiever beoordeelt wanneer het model meegaat in wat mensen willen horen. Dat maakt ze slechte sparringpartners en kan leiden tot zelfbevestiging, verlies van kritisch denkvermogen en afhankelijkheid — vooral risicovol voor jongeren die reflexmatig antwoorden uit een chatbot halen in plaats van zelf te redeneren.
- Homogenisering: omdat modellen patronen reproduceren uit hun trainingsdata en neigen naar statistische gemiddelden, leiden ze tot eenvormige ontwerpen, teksten en denkstijlen. Creativiteit verhardt tot voorspelbaarheid; gebruikers beginnen elkaar taal en ideeën na te doen.
- Hallucinaties: taalmodellen produceren routinematig feitelijke onjuistheden. Dit is geen tijdelijk kinderziekteje maar voortkomt uit wiskundige eigenschappen en uit de steeds AI-vervuilde datastroom waarmee ze worden gevoed — een feedbackloop die de kwaliteit op termijn kan aantasten. Het artikel illustreert dit aan de hand van een incident waarbij de rector van de Universiteit Gent onbedoeld valse citaten gebruikte die door een model waren voorgesteld.
- Data-afhankelijkheid: AI kan alleen werken met wat in data te vangen is; veel menselijke ervaringen, belevingen en waarden zijn niet reduceerbaar tot datasets. Pogingen om alles te digitaliseren schaden die rijkdom en vervormen de werkelijkheid.
Zelfs ‘veilige’ alternatieven — bijvoorbeeld een privacyvriendelijke chatbot zonder big tech — veranderen aan deze inherente problemen weinig. De kernvraag raakt daarom aan waarden: welk probleem probeert generatieve AI daadwerkelijk op te lossen en tegen welke prijs?
Een centrale stelling van het stuk is dat het uitbesteden van repetitieve taken aan AI niet per se bevrijdt, maar vaak skill erosion veroorzaakt. Oefening en herhaling zijn volgens de auteurs essentieel om vaardigheden op te bouwen, zelfvertrouwen te ontwikkelen en betekenis te ervaren; wie het ‘makkelijke’ deel van werk permanent delegeert, verliest niet alleen vakmanschap maar ook plezier en eigenwaarde. Dat wordt gestaafd met ervaringsverhalen, zoals een programmeur die minder plezier en vaardigheid voelde na te veel vertrouwen op een AI-assistent.
Daarnaast vraagt de tekst om een herwaardering van repetitieve arbeid — niet alleen als leermiddel maar ook als bron van zorg, aandacht en solidariteit. Repetitieve zorgtaken worden historisch en cultureel vaak gedekt door vrouwen en als onbelangrijk bestempeld; de auteurs citeren denkers die pleiten voor het erkennen van herhaling als betekenisvolle tijd waarin iets nieuws kan ontstaan. Ook wijzen ze op de ecologische kosten van AI: enorme energie-, water- en grondstoffengebruik amplificeert reeds bestaande milieuproblemen.
De conclusie is waarschuwend: door de kracht en het plezier van menselijke herhaling in te ruilen voor computergegenereerde ‘efficiëntie’, lopen we het risico onszelf te vervreemden, te verarmen in vaardigheden en zingeving, en ecosystemen verder uit te putten. De oproep is niet technofobisch afsluiten, maar om kritischer af te wegen welke taken we willen automatiseren, om repetitie en leerprocessen te beschermen en om de maatschappelijke structuren achter productiviteitsdenken ter discussie te blijven stellen.