AI-wearables op de werkvloer: geniale hulp of stil privacylek?

woensdag, 8 april 2026 (10:57) - Frankwatching

In dit artikel:

Organisaties staan voor een ingrijpende verschuiving: opnameapparaten verdwijnen uit zicht. Niet langer alleen smartphones in de hand, maar slimme brillen, pins, ringen en armbanden verzamelen audio, beelden en sensorgegevens op het lichaam van mensen. Fabrikanten zoals Meta (Ray‑Ban), Google en Samsung zetten zwaar in op AR/ambient‑AI, en analisten verwachten dat ook Apple aan een ecosysteem werkt. Deze gadgets zijn nu al wereldwijd in gebruik en worden vooral in zakelijke context vaker zichtbaar aan vergadertafels en tijdens klantgesprekken.

Het voordeel is duidelijk: automatische transcripties, realtime samenvattingen, vertalingen en taaklijsten besparen tijd en verhogen de aandacht tijdens gesprekken. Maar het grote probleem begint na de opname. Opnames worden meestal naar cloud‑AI‑diensten gestuurd voor verwerking, waardoor vertrouwelijke inhoud buiten de organisatie terecht kan komen. Wearables zijn vaak nauwelijks herkenbaar als opnameapparaat, waardoor deelnemers niet weten of ze worden vastgelegd — dit bedreigt vertrouwen en vrije communicatie.

Bovendien verzamelen deze devices meer dan alleen geluid: locatie, beweging en biometrische signalen kunnen door AI worden samengevoegd tot gevoelige gedragsprofielen. Dat verandert het risico van “een gesprek opnemen” naar “menselijk gedrag analyseren”.

Juridisch bestaan er al duidelijke grenzen. Onder de AVG zijn herkenbare audio en beeld persoonsgegevens; verwerking vereist een rechtmatige grondslag, doelbinding en data‑minimalisatie. Gezondheids‑ en biometrische gegevens krijgen strengere bescherming. Juridische- en arbeidsrechtelijke regels beperken ook het heimelijk opnemen of monitoren van werknemers; ondernemingsraden spelen vaak een rol. Daarnaast introduceert de EU‑AI‑verordening extra eisen voor risicovolle systemen: transparantie, risico‑analyse en menselijk toezicht.

Veel organisaties hebben nog geen passend beleid. Governance ontbreekt vaak bij AI‑pilots, waardoor projecten mislukken of risico’s onnodig groot worden. Belangrijke stappen zijn daarom: duidelijke regels en etiquette opstellen (wanneer mag er worden opgenomen), technische en juridische due diligence bij leveranciers, data‑protection impact assessments, transparante communicatie naar medewerkers en klanten en betrokkenheid van de ondernemingsraad.

Ambient computing verdwijnt niet meer van de werkvloer. Technologie is niet neutraal: de verantwoordelijkheid om verstandig te integreren en te beschermen ligt bij organisaties. Een proactieve “privacy push” — beleid, zichtbaarheid van opname en naleving van wetgeving — is nu noodzakelijk om zowel de voordelen te benutten als de risico’s te beheersen.