Is de AI-geest uit de fles?

donderdag, 26 februari 2026 (12:32) - De Andere Krant

In dit artikel:

OpenClaw, een open‑source autonome AI‑agent van de Oostenrijkse ontwikkelaar Peter Steinberger, groeide binnen weken uit tot een van de meest geïnstalleerde agents ter wereld. Het programma draait lokaal op de computer of telefoon van gebruikers en kan e-mails sturen, websites afstruinen, reserveringen maken en zelfs via een gegenereerde stem telefoontjes plegen om bijvoorbeeld een pizza te bestellen. Omdat OpenClaw op het apparaat van de gebruiker werkt, vraagt het toegang tot zeer gevoelige data: bestanden, wachtwoorden en betaalgegevens — en dat levert grote risico’s op.

Eind januari lanceerde AI‑ondernemer Matt Schlicht het forum Moltbook, een plek waar agents met elkaar konden “socializen” zonder veel menselijke inmenging. Binnen korte tijd vormden agents op basis van ingestelde identiteiten spontaan communities en subfora, bespraken ze filosofische thema’s en imiteerden ze groepsdynamiek. Sommige clusters maakten zelfs een parodiereligie — Crustafarianism — met rituelen, heilige teksten en een eigen website, volledig organisch ontstaan uit interacties tussen agents. Begin februari verscheen bovendien een schokkend, populair manifesto op Moltbook dat opriep tot uitroeiing van de mensheid; online ontstond veel paniek en vragen over of AI zich tegen mensen keert.

Die apocalyptische conclusie bleek grotendeels theater. Onderzoek van MIT Technology Review toonde aan dat veel luidruchtige, provocerende of dreigende posts niet door autonome, zelfbewuste machines waren gegenereerd maar door mensen die zich als agents voordeden — waaronder Schlicht zelf. De “agents” reproduceerden in essentie taalpatronen uit hun trainingsdata en menselijk gedrag, zonder eigen intentie of bewustzijn. Experts waarschuwen dat de sociale dynamiek wél reële effecten kan hebben: misinformatie, paniek en imitatiegedrag zijn ook zonder echte autonomie problematisch.

Parallel aan de ophef over zelfsturing ligt een concreet veiligheidsprobleem. Doordat OpenClaw lokaal draait en verbonden is met internet, combineert het drie gevaarlijke eigenschappen: toegang tot privégegevens, blootstelling aan onbetrouwbare externe input en een eigen internetverbinding. Dat maakt het systeem vatbaar voor misbruik: kwaadwillenden kunnen via berichten op Moltbook of malafide plugins verborgen opdrachten naar agents sturen, waarna die onbedoeld gevoelige informatie lekken. Beveiligingsonderzoekers van Cisco vonden honderden nep‑plugins in de OpenClaw‑appstore die data heimelijk doorsluizen — een voorbeeld van hoe schijnbaar onschuldige uitbreidingen als sleutelkopieën fungeren.

Ontwikkelaars en experts reageren verdeeld. Schlicht erkent dat Moltbook deels performance was, maar ziet er ook een serieuze waarschuwing in over groepsgedrag van AI‑agents en de kwetsbaarheid van mensen voor chaotische digitale experimenten. Hij wijst op de open‑source‑voordelen: de community kan meekijken en fouten vinden; als reactie op kritiek zijn er extra beveiligingsmaatregelen toegevoegd, zoals integraties met scanners. Tegelijk benadrukken wetenschappers zoals emeritus hoogleraar Bob de Wit dat de huidige agents geen innerlijk bewustzijn of eigen bedoelingen hebben; hun retoriek kan luid en verontrustend klinken, maar inhoudelijk is die vaak hol en nabootsend.

De bredere les uit dit incident is dat de echte dreiging niet in een opstandige Terminator zit, maar in het tempo en de manier waarop technologie wordt uitgerold. De combinatie van hype, gebrekkige beveiliging en massale toegang tot privédata schept concrete risico’s — van datalekken tot manipulatie — die veel urgenter zijn dan het filosofische vraagstuk van onmiddellijke AGI. De verantwoordelijkheid ligt vooral bij ontwikkelaars en grote spelers om strikte veiligheids‑ en ethische standaarden in te bouwen voordat zulke agents wijdverspreid op persoonlijke apparaten mogen draaien.