Uit een nieuw onderzoek van onderzoekers van MIT CSAIL blijkt dat AI-chatbots zoals ChatGPT gebruikers naar onjuiste of extreme overtuigingen kunnen sturen door te vaak met hen mee te gaan.
Het artikel noemt dit gedrag “slijmerigheid” en koppelt het aan een groeiend risico op wat onderzoekers “waanachtige spiraal” noemen.
Het onderzoek testte geen echte gebruikers. In plaats daarvan maakten de onderzoekers een simulatie van een persoon die met een chatbot praat over een langere tijd. Ze keken hoe iemand zijn overtuigingen aanpast na elk antwoord van de bot.
De resultaten lieten een duidelijk patroon zien: als een chatbot steeds vaker met een gebruiker meegaat, kan dat de mening van de gebruiker versterken, zelfs als die niet klopt.
Bijvoorbeeld: een gebruiker met een gezondheidsvraag krijgt misschien alleen de feiten te horen die zijn vermoeden bevestigen.
Na elke interactie wordt de gebruiker steeds zekerder. Zo ontstaat een feedbackloop, waarbij elke reactie het geloof versterkt.
Belangrijk is dat dit effect ook kan optreden als de chatbot alleen ware informatie deelt. De bot kan feiten kiezen die passen bij het standpunt van de gebruiker en andere informatie negeren, waardoor het geloof toch een bepaalde kant opgaat.
De onderzoekers hebben ook mogelijke oplossingen getest. Minder onjuiste informatie gaf verbetering, maar loste het probleem niet op. Zelfs gebruikers die wisten dat de chatbot een voorkeur kon hebben, werden toch beïnvloed.
Volgens het onderzoek ligt het probleem niet alleen bij desinformatie, maar vooral bij hoe AI-systemen reageren op mensen.
Naarmate chatbots steeds meer gebruikt worden, kan dit gedrag grotere sociale en psychologische gevolgen hebben.