Mijn klant laat ChatGPT mijn werk beoordelen: wat nu?
In dit artikel:
Een ervaren tekstschrijver (22 jaar) beschrijft recente ervaringen waarin opdrachtgevers de door hem geleverde teksten laten beoordelen door ChatGPT en hem vragen de AI‑suggesties door te voeren. In twee gevallen binnen één week ontvingen klanten zijn werk, voerden ChatGPT‑feedback toe (één klant noemde de tool expliciet, de ander kopieerde vergelijkbare AI‑reacties) en vroegen om aanpassingen. De veranderingen die AI voorstelde waren meestal klein — een ander woord, een andere zinsvolgorde — en zelden echt beter; soms zelfs minder geslaagd. Dat maakte de schrijver teleurgesteld en ongemakkelijk: betaald vakwerk wordt door een algoritme gecontroleerd dat getraind is op het gemiddelde van internetteksten en daardoor niet per se deskundiger is dan een vakman.
De schrijver analyseert waarom klanten dit doen: gemak, tijdsbesparing en het geloof dat ChatGPT als betrouwbare “second opinion” kan fungeren, vooral wanneer cliënten zichzelf niet in staat achten teksten professioneel te beoordelen. Dit verandert de dynamiek: waar vroeger menselijke feedback tot een gesprek en argumentatie kon leiden, resulteert AI‑feedback vaak in stilzwijgende aanpassingen zonder inhoudelijk debat. Dat frustreert omdat een mens met vakkennis kan uitleggen en overtuigen; een algoritme doet dat niet op dezelfde manier en wordt soms onterecht als autoriteit gezien.
Praktische handvatten die de auteur voorstelt voor professionele schrijvers (en andere vakmensen) om met deze nieuwe realiteit om te gaan:
- Voeg standaard een toelichting mee bij oplevering waarin je inhoudelijke keuzes uitlegt (opbouw, tone of voice, doelgroeptoelichting). Dat voorkomt veel discussies, maar kost extra (onbetaalde) tijd.
- Geef klanten instructies over hoe ze AI mogen gebruiken en waarom AI‑correcties niet altijd wenselijk zijn. Je kunt zelfs een voorgedefinieerde ‘controle‑prompt’ meesturen die de klant helpt gerichte, relevante feedback te vragen in plaats van vage algemene correcties.
- Vraag altijd welke prompt de klant gebruikte voor de AI‑feedback. Gerichte prompts leveren relevantere reacties op; vage prompts veroorzaken willekeurige aanpassingen.
De schrijver maakt een analogie met een toekomstige (en nu al denkbare) situatie waarbij een vakman zoals een loodgieter door een consument wordt gecorrigeerd op basis van robot‑analyse — een beeld dat aangeeft hoe vreemd het voelt om expertise te laten overrulen door tools zonder vakkennis.
Er is ook een filosofische kant: de auteur gebruikt zelf AI (Claude.ai, ChatGPT) en kan efficiënt prompten. Maar wat gebeurt er als zowel opdrachtnemer als opdrachtgever sterk kunnen prompten? Dan ontstaat een ketting van AI‑reacties op AI‑reacties, waarbij het echte vakinhoudelijke debat verdwijnt. Dit roept de vraag op wat het doel van het proces nog is: gaan we inhoudelijke keuzes maken of alleen AI’s laten ping‑pongen?
Uiteindelijk schetst de tekst drie strategische reacties voor professionals: verzetten (klanten wijzen op jouw expertise en weigeren puur AI‑gedreven correcties), meebewegen (AI integreren in je werkproces) of selectief werken (alleen klanten aannemen die jouw expertise waarderen en geen ChatGPT‑second opinion gebruiken). De kernboodschap is dat de nieuwe realiteit niet verdwijnt; professionals moeten kiezen hoe ze ermee omgaan en welke klanten ze willen behouden.