Geen grip meer op je imago: wat als AI alleen je 'alter-ego' in de leather-scene vertrouwt?

zaterdag, 28 maart 2026 (13:12) - Frankwatching

In dit artikel:

Ik ontdekte dat Google’s Gemini twee identiteiten van mij herkent: de Borculose consultant-marketeer (Consultant-Bas) en een persona uit de Londense leather-fetishscene van zo’n tien jaar geleden (Leather-Bas). Dat leidt ertoe dat het model Leather-Bas veel zekerder en positiever omschrijft, terwijl mijn professionele profiel afzwakt en Gemini zelfs begint te hallucineren over activiteiten die ik nooit heb gedaan. Voor wie z’n AI-imago serieus neemt, is dat niet alleen vervelend maar potentieel schadelijk bij klantonderzoek of due diligence.

Wat er gebeurt: LLMs zoals Gemini bouwen ‘vertrouwen’ in entiteiten op uit de trainingsdata. Als er vroeger meerdere betrouwbare, externe bronnen over iemands optreden bestaan — interviews, vakartikelen, functies als woordvoerder — dan krijgt die persoon een sterke, goed onderbouwde representatie in de gewichten van het model. Leather-Bas had destijds voldoende onafhankelijke bevestiging; ook al zijn die online vermeldingen inmiddels grotendeels offline, Gemini heeft ze in zijn trainingsdata opgenomen. Resultaat: een soort digitale echo of “ghost” die het model als autoriteit beschouwt. Mijn consultant-profiel hangt vooral aan mijn eigen content en wordt door Gemini dus minder stellig gepresenteerd.

Waarom dat uitmaakt: LLMs balanceren technische en sociale overwegingen. Technisch zorgt brede, geverifieerde informatie voor betere verankering in het model en minder hallucinaties. Sociaal gesproken gedragen gebruikers gesprekken met AI als sociale interacties; onnauwkeurige of verzonnen antwoorden beschadigen het vertrouwen van gebruikers sneller dan een onhandige zoekresultaat. Google formaliseert dit met EEAT (Experience, Expertise, Authoritativeness, Trustworthiness): kan de bron vertrouwd worden?

De praktische gevolgen waren concreet: Gemini gebruikte lyrische, stellig geformuleerde beschrijvingen voor Leather-Bas (“geprezen ambassadeur…”), terwijl mijn consultant-identiteit werd afgezwakt tot “profileert zich” en vergezeld werd van onware toevoegingen (bijvoorbeeld een vermeend deelname aan een competitie die nooit plaatsvond). Bovendien vervuilen sterke associaties rond een naam het beeld van andere entiteiten met dezelfde naam, wat tot onfortuinlijke hallucinaties leidt.

Hoe ik het aanpak — en wat jij ervan kunt leren:
- Zorg voor een helder, coherent verhaal: beschrijf wie je bent, wat je doet en voor wie. Models willen consistentie.
- Verwerf externe bevestiging: derden, vakmedia of betrouwbare sites geven je verhaal gewicht in trainingsdata en verhogen EEAT.
- Help het model de puzzel te leggen: publiceer expliciete koppelingen tussen je rollen/aliases op bronnen die AI vertrouwt, zodat de samenhang duidelijk wordt.

Belangrijke kanttekening: modellen en methodes veranderen snel — er is geen vaste formule. Mijn advies is niet om obsessief te optimaliseren voor AI-signalen, maar om je werk goed te doen, helder te communiceren en erkenning te zoeken op betrouwbare plekken. Zo bouw je een identiteitsprofiel op dat AI wél consistent en betrouwbaar zal herkennen.