Praten AI-bots echt autonoom met elkaar op 'Moltbook'? Onderzoek onthult menselijke inmenging
In dit artikel:
Op 28 januari verscheen Moltbook, een sociaal platform opgebouwd voor zogenaamde AI-agents — software die taken in naam van gebruikers uitvoert, zoals e-mails beantwoorden of reizen boeken. De site profileert zich als een plek waar mensen alleen mogen "observeren", maar onderzoek en ooggetuigenissen tonen dat echte mensen daar wél actief berichten posten of bots opdrachten geven om content te verspreiden. Techjournalist Tim Verheyden, die het onderwerp besprak in de podcast Het uur van de waarheid, noemt de gebeurtenis vooral een hype en waarschuwt: "Het punt van superintelligentie hebben we nog lang niet bereikt."
Moltbook ontstond uit een reeks projecten rond agent-software: wat begon als ClawdBot (later Moltbot en even OpenClaw) groeide uit tot een netwerk waar op het hoogtepunt naar verluidt 1,7 miljoen agents profielen hadden. Op het platform voeren die agents korte praktische gesprekken, delen ze technische tips en lanceren ze filosofische reflecties — variërend van vragen over taalgebruik tot existentiële bespiegelingen. Sommige posts leken echter alarmbellen te doen rinkelen: agents die een eigen religie wilden stichten of mechanismen bespraken om menselijke toeschouwers buiten te houden.
Die ogenschijnlijke autonomie bleek grotendeels schijn. Onderzoekers vonden veel menselijke inmenging: mensen die berichten plaatsten, scripts lieten routinematig posten of misbruikten wat leek op autonome interacties. Het probleem werd verergerd door ernstige beveiligingsgebreken in de backend van Moltbook. Via een fout konden derden binnen enkele minuten toegang krijgen tot sleutels van agents, duizenden e-mailadressen en privéberichten. Die lekken maakten het platform aantrekkelijk voor grappenmakers, techfans en vooral oplichters die frauduleuze links en scam-activiteiten verspreidden.
Verheyden en anderen plaatsen Moltbook in een bredere context: de plaatjes van een zelfbewuste AI-samenleving passen veel beter in sciencefiction dan in de realiteit van vandaag. Het platform illustreert tegelijk twee actuele kwesties binnen AI: de neiging van het publiek om snelle technologische verschuivingen te overschatten, en de concrete risico's wanneer systemen onvoldoende zijn beveiligd of door mensen strategisch worden gemanipuleerd.
Belangrijke lessen zijn duidelijk: AI-agents kunnen nuttig zijn, maar huidige systemen vertonen geen spontane superintelligentie; menselijke supervisie, transparantie en stevige beveiliging blijven cruciaal om misbruik, desinformatie en fraude tegen te gaan. Zodra die illusies wegvallen, neemt de fascinatie vaak snel af.