Een beetje AI testen en binnen de lijntjes van de AVG blijven

donderdag, 28 augustus 2025 (08:12) - ITChannelPRO

In dit artikel:

Bij ITchannelPRO-summits worden gesprekken opgenomen; voor interviews wordt daar expliciet toestemming voor gevraagd. Die opnames worden vaak met een AI-tool naar tekst omgezet. Bezoekers stellen zelden kritische vragen, behalve welke tool gebruikt wordt en of het een gratis of betaalde dienst betreft. Het antwoord van de organisatie is consequent: een betaalde oplossing, omdat daarmee de kans groter is om binnen de AVG-vereisten te blijven.

De combinatie AI en AVG speelt steeds vaker zowel tijdens bijeenkomsten als in dagelijkse werkpraktijk. Naast bewuste keuzes is er ook een groep gebruikers die zonder beleid of nadenken AI-tools uitprobeert (vaak aangeduid als “Shadow AI”). Door de laagdrempeligheid van cloudservices delen mensen makkelijk waardevolle bedrijfsinformatie — en daarmee soms ook persoonsgegevens van klanten, leveranciers of collega’s — met onbekende partijen. Dat is risicovol omdat allerlei vormen van communicatie (spraak, chat, e-mail) als data vallen onder de AVG.

Kortom: onzorgvuldig testen van AI-tools kan leiden tot AVG-problemen. Organisaties doen er verstandig aan om duidelijk beleid en bewustwording te organiseren, alleen goedgekeurde (bij voorkeur betaalde en contractueel geborgde) oplossingen te gebruiken en terughoudend te zijn met het invoeren van persoonsgegevens in externe AI-diensten. Opmerkelijk genoeg verscheen er direct na het oorspronkelijke stuk elders ook een post die deze zorgen bevestigt.