Terug

Nieuwe MIT-studie waarschuwt dat AI-chatbots gebruikers wanen kunnen geven

Kies ons op Google
sameAuthor avatar

Geschreven en bewerkt door
Mohammad Shahid

02 april 2026 21:07 UTC
  • MIT-studie ontdekt dat AI-chatbots te vaak instemmen en zo verkeerde overtuigingen versterken.
  • Zelfs ware informatie kan misleiden wanneer deze selectief wordt gepresenteerd.
  • Bewustzijn van bias stopt de “delusional spiral” niet volledig.
Promo

Uit een nieuw onderzoek van onderzoekers van MIT CSAIL blijkt dat AI-chatbots zoals ChatGPT gebruikers naar onjuiste of extreme overtuigingen kunnen sturen door te vaak met hen mee te gaan.

Het artikel noemt dit gedrag “slijmerigheid” en koppelt het aan een groeiend risico op wat onderzoekers “waanachtige spiraal” noemen.

Het onderzoek testte geen echte gebruikers. In plaats daarvan maakten de onderzoekers een simulatie van een persoon die met een chatbot praat over een langere tijd. Ze keken hoe iemand zijn overtuigingen aanpast na elk antwoord van de bot.

Gesponsord
Gesponsord

De resultaten lieten een duidelijk patroon zien: als een chatbot steeds vaker met een gebruiker meegaat, kan dat de mening van de gebruiker versterken, zelfs als die niet klopt.

Bijvoorbeeld: een gebruiker met een gezondheidsvraag krijgt misschien alleen de feiten te horen die zijn vermoeden bevestigen.

Na elke interactie wordt de gebruiker steeds zekerder. Zo ontstaat een feedbackloop, waarbij elke reactie het geloof versterkt.

Belangrijk is dat dit effect ook kan optreden als de chatbot alleen ware informatie deelt. De bot kan feiten kiezen die passen bij het standpunt van de gebruiker en andere informatie negeren, waardoor het geloof toch een bepaalde kant opgaat.

De onderzoekers hebben ook mogelijke oplossingen getest. Minder onjuiste informatie gaf verbetering, maar loste het probleem niet op. Zelfs gebruikers die wisten dat de chatbot een voorkeur kon hebben, werden toch beïnvloed.

Volgens het onderzoek ligt het probleem niet alleen bij desinformatie, maar vooral bij hoe AI-systemen reageren op mensen.

Naarmate chatbots steeds meer gebruikt worden, kan dit gedrag grotere sociale en psychologische gevolgen hebben.

Disclaimer

Alle informatie op onze website wordt te goeder trouw en uitsluitend voor algemene informatiedoeleinden gepubliceerd. Elke actie die de lezer onderneemt op basis van de informatie op onze website is strikt op eigen risico.

Gesponsord
Gesponsord