Waarom blijven we maar op 'akkoord' klikken en onze data weggeven aan techbedrijven?
In dit artikel:
Mensen blijven massaal op ‘akkoord’ klikken bij toestemmingsverzoeken van apps, ook nu steeds vaker blijkt dat die data kwetsbaar of misbruikt kunnen worden. Recent onderzoek en kritiek — onder meer over de populairste bijbel-app en eerdere lekken zoals de persoonlijke gegevens van vermoedelijk 850.000 deelnemers aan een onderzoek naar baarmoederhalskanker — laten zien dat bewustzijn over risico’s wél toeneemt, maar gedrag nauwelijks verandert.
Drie denkers geven in het artikel uiteenlopende verklaringen. Filosoof Hans Schnitzler ziet een langzaam kantelend bewustzijn, maar benadrukt dat mensen vooral kiezen voor gemak: digitale diensten maken het leven efficiënter en verleiden ons tot afhankelijkheid. Daardoor wegen comfort en onmiddellijke baten zwaarder dan abstracte privacyrisico’s die we niet direct voelen. Schnitzler legt dit ook in culturele termen uit: technologieen zijn uitgegroeid tot ‘huisgoden’ die leegte vullen waar vroegere collectieve richtlijnen ontbraken; we geven steeds meer uit handen, van boodschappen tot morele beslissingen.
Miriam Rasch maakt duidelijk dat privacy niet alleen gaat over informatie die je liever voor jezelf houdt, maar vooral om wat achter de schermen met die data gebeurt. Ze geeft het actuele voorbeeld van Amerikaanse vrouwen die menstruatie-apps verwijderen uit angst dat gegevens gebruikt kunnen worden in rechtszaken rond abortus: locatiegegevens of afwijkende menstruatiepatronen kunnen in theorie aanwijzingen leveren en tegen iemand worden gebruikt. Dit toont hoe snel een andere politieke wind persoonlijke data risicovol kan maken.
Techniekfilosoof Cees Zweistra wijst op een risico dat minder zichtbaar is: structurele gedragsveranderingen en zwakkere maatschappelijke instituties als gevolg van digitale technologie. Volgens hem lossen wetten over data en algoritmen het hele probleem niet op; ze genezen hooguit symptomen. De invloed van platforms reikt verder: filterbubbels kunnen jongeren richting radicalere ideeën duwen, en online middelen ondermijnen traditionele gezagsrelaties zoals ouders of religieuze leiders. Ook ontstaat een collectief dilemma: veel mensen zouden liever van bepaalde apps af, maar doen dat niet uit angst om buitengesloten te raken — een technologieval die social pressure in stand houdt.
Het artikel noemt concrete beleidsreacties: de EU heeft privacyregels en recentelijk de AI-wetgeving ingevoerd om burgers meer controle te geven, en het Europees Parlement wil gepersonaliseerde chatbots als hoog risico bestempelen. Toch waarschuwen de geïnterviewden dat regelgeving gemakkelijk een vals gevoel van veiligheid kan creëren en dat fundamentele, langetermijngevolgen onvoldoende worden besproken.
Praktische en politieke suggesties klinken terug in de tekst. Individueel gedrag kan veranderen door apps te verwijderen, minder data achter te laten en anderen daartoe aan te moedigen — niet omdat dat alle problemen oplost, maar om niet volledig in machteloosheid te vervallen. Schnitzler raadt bovendien aan tijdens verkiezingen te letten op partijprogramma’s en beleid rond dataprotectie; de overheid heeft volgens hem een taak om burgers te beschermen tegen misbruik door techreuzen en autoritaire regimes. Rasch sluit af met een pleidooi voor nuchterheid: mensen zijn meer dan hun digitale profiel en behouden meer autonomie dan de online reflectie soms suggereert.
Kortom: bewustzijn over privacyrisico’s groeit, maar gedrag blijft grotendeels onveranderd door gemak, onzichtbare risico’s en sociale afhankelijkheid. Wetten kunnen een deel van het probleem aanpakken, maar de diepere maatschappelijke effecten van digitale afhankelijkheid vragen bredere publieke discussie, collectieve keuzes en individuele acties om de grip op onze data en identiteit terug te winnen.