MIND: vraagtekens bij gebruik gen AI voor psychische klachten

di 2 december 2025 - 07:00
Nieuws

In het onderzoeksrapport 'Zorgelijk of kansrijk? Generatieve AI bij psychische klachten' toont MIND dat toepassing van generatieve AI zeker kansen biedt, maar dat er ook sprake is van potentiële risico’s. Het doet aanbevelingen om de kwaliteit van de toepassingen, de effecten van het gebruik en de voorwaarden voor veilig gebruik in kaart te brengen.

Uit het onderzoek blijkt dat generatieve AI voor ruim een derde van de respondenten inmiddels een rol heeft in het omgaan met psychische klachten. Dit is in lijn met de cijfers die OpenAI, de ontwikkelaar van ChatGPT, recent publiceerde over het wereldwijde gebruik hiervoor.

De meeste mensen gebruiken AI-toepassingen zoals ChatGPT als aanvulling op professionele hulpverlening, slechts 13 procent als vervanging ervan. Ze gebruiken vooral de gratis versie van ChatGPT. “Het gaat dus niet om aanbod dat specifiek voor psychische klachten is ontwikkeld”, vertelt Juliët Holtschlag, beleidsadviseur en projectmedewerker bij MIND, in ICT&health 6. “Deze mensen zijn vanuit hun behoefte gaan zoeken naar een plek waar zij hulp en ondersteuning kunnen vinden bij hun klachten.”

De opgegeven redenen voor het gebruik van generatieve AI zijn de continue beschikbaarheid, laagdrempeligheid en oordeelloosheid. Het biedt een luisterend oor en geeft volgens gebruikers goede adviezen en nieuwe inzichten. Ook gebruiken mensen AI om hun naasten niet (gevoelsmatig) tot last te hoeven zijn. 93 procent ervaart dit als helpend.

Risico’s en beperkingen

Het gebruik van generatieve AI om te praten over psychische klachten neemt toe met het bredere gebruik van AI, stelt Holtschlag. “Veel mensen gebruiken het in eerste instantie voor praktische dingen, veelal in relatie tot werk”, zegt ze. “En gaandeweg dan ook om meer persoonlijke onderwerpen te bespreken.”

Het onderzoek wijst uit dat de meeste mensen zich dan ook bewust zijn van de risico’s en beperkingen ervan, als ze dit doen voor het bespreken van hun psychische klachten. Het is te algemeen of standaard. Het is geneigd mee te gaan in de gedachten en emoties van de gebruiker in plaats van deze tegen te spreken. Soms begrijpt het de gebruiker verkeerd.

“Ook dat zijn persoonlijke interpretaties van gebruikers”, zegt Holtschlag. “Maar wat zij zeggen over de meegaandheid van AI wordt wel bekrachtigd door wetenschappelijk onderzoek. Er bestaan steeds meer mediaberichten waarin AI genoemd wordt in relatie tot psychose of suïcidaliteit. Dat leidt nu tot meer onderzoek.”

Privacy-vragen terecht

“De vragen van gebruikers over privacy zijn terecht”, zegt Holtschlag, “zeker bij de gratis versie van taalmodellen. De data die gebruikers uitwisselen met een taalmodel worden opgeslagen en gebruikt om het model te trainen. Bij een betaald model is dat niet altijd zo. Maar feit blijft dat je praat met techniek van een commercieel bedrijf. We hebben geen zicht op wat met gebruikersdata gebeurt.”

MIND is dus genuanceerd in haar oordeel en ziet zowel de voordelen als de risico’s. “In verband met die risico’s pleiten we voor duidelijke kaders en ethische richtlijnen voor het gebruik”, zegt Holtschlag. Ook een handreiking voor behandelaars is van belang. Hier ligt een rol voor beroepsorganisaties.”

Lees het hele artikel in editie 6 van ICT&health, die op 12 december verschijnt.

Hoe de zorg haar toekomst inricht? Duizenden zorgprofessionals ontdekken wat echt werkt en verzilveren kansen. Claim ook jouw ticket en ervaar het op het ICT&health World Conference 2026!