Stemacteur Nicolas (35) hoort zichzelf in reclamespot die hij nooit heeft ingesproken
In dit artikel:
Nicolas Cherlet (35), muzikaal actief en al zeven jaar stemacteur, ontdekte vorige maand dat een klonering van zijn stem zonder zijn toestemming in een reclamevideo werd gebruikt. Terwijl hij op sociale media scrollde zag hij een spot voor een immokantoor — geproduceerd door een huis waarvoor hij vroeger opdrachten deed — waarin een diepe vertelstem zinnen uitsprak die hij nooit had ingesproken. Na controle van zijn e-mail bleek dat hij nooit voor die tekst was gevraagd; zijn stem was met AI nagebootst.
Toen hij het productiehuis confronteerde, werd het misbruik toegegeven. Het bedrijf bood achteraf een financiële vergoeding aan maar wilde de AI-versie van zijn stem blijven inzetten. Dat weigerde Cherlet resoluut: “Dat is net het tegenovergestelde van wat ik wil.” Voor hem gaat het om meer dan inkomsten; zijn stem is zijn vak, identiteit en creatieve gereedschap.
Juridisch gezien is het gebruik van iemands stem zonder toestemming niet nieuw en ook niet legaal. Simon Geiregat, professor intellectuele rechten, wijst erop dat bestaande persoonlijkheidsrechten — waaronder het recht op stemgeluid — dit soort misbruik afdekken. Je mag iemands afbeelding of stem niet commercieel exploiteren zonder expliciete toestemming, en ook nagenoeg exacte replica’s kunnen daaronder vallen. Historische uitspraken, zoals een zaak rond zanger Rocco Granata, tonen dat imitatie door derden door de rechtspraak kan worden verboden. Sommige landen (Nederland, Denemarken, Frankrijk) werken aan aanvullende regelgeving; België heeft die nog niet ingevoerd.
De Belgische stemsector reageert bezorgd. BELVA, de beroepsvereniging voor stemacteurs, noemt het scenario een nachtmerrie en verzamelt soortgelijke gevallen in een klacht bij de Gegevensbeschermingsautoriteit. Als praktische maatregelen raadt de organisatie leden aan AI-clausules in contracten op te nemen zodat gebruik en rechten vooraf helder zijn. Daarnaast ontwikkelt BELVA met behulp van AI een beschermingsinstrument dat opnames zou kunnen “vergiftigen” met onhoorbare ruis om misbruik door andere modellen te bemoeilijken.
Het betrokken productiehuis verdedigt zich door te wijzen op de snelle digitalisering van contentproductie: betaalbare AI-tools maken creatie laagdrempelig en sommige makers worden door die snelheid en gemak “blind” voor juridische en ethische grenzen. Ze zien nu vooral een behoefte aan meer educatie en duidelijke kaders in de sector. Andere stemacteurs, zoals Jeroen Medaer, noemen AI een kans mits ethisch en contractueel correct toegepast; het kan nieuwe rollen mogelijk maken maar mag geen vrijbrief zijn voor ongevraagd gebruik.
Cherlet overweegt voorlopig geen rechtszaak, maar het incident heeft zijn vertrouwen aangetast en zijn beroepsethos geraakt. Hij wil afstand nemen van die technologie en zoekt naar meer ambachtelijke bezigheden. De zaak illustreert bredere vragen rond verantwoordelijkheid van platforms en aanbieders van AI-tools, de nood aan wettelijke verduidelijking en de spanning tussen technologische mogelijkheden en individuele rechten.