Generatieve AI bij psychische klachten helpt, maar kent grenzen

vr 24 april 2026 - 10:30
GGZ in de zorg
Nieuws

Generatieve AI speelt voor steeds meer mensen een rol bij het omgaan met psychische klachten. Uit onderzoek van belangenorganisatie MIND blijkt dat ruim een derde van de respondenten AI inzet als aanvulling op professionele hulpverlening. Vooral de laagdrempeligheid, continue beschikbaarheid en het ontbreken van oordeel maken toepassingen als ChatGPT aantrekkelijk. Tegelijk zijn er duidelijke zorgen over veiligheid, privacy en de effecten op de lange termijn.

De meeste gebruikers zetten AI niet in als vervanging van therapie, maar als extra steun tussen behandelmomenten door. Slechts dertien procent gebruikt het als alternatief voor professionele hulp. Vaak gaat het om gratis versies van taalmodellen zoals ChatGPT, die niet specifiek zijn ontwikkeld voor psychische ondersteuning.

Volgens Juliët Holtschlag, beleidsadviseur en projectmedewerker bij MIND, zoeken mensen vooral zelf naar een toegankelijke vorm van hulp. “Het gaat dus niet om aanbod dat specifiek voor psychische klachten is ontwikkeld”, vertelde zij in een recente editie van ICT&health. “Deze mensen zijn vanuit hun behoefte gaan zoeken naar een plek waar zij hulp en ondersteuning kunnen vinden bij hun klachten.”

Constante beschikbaarheid

Gebruikers noemen vooral de constante beschikbaarheid als voordeel. AI biedt volgens hen ruimte om gedachten te ordenen, emoties te uiten en klachten beter te begrijpen. Ook helpt het dat mensen hun omgeving niet altijd willen belasten met hun zorgen.

Holtschlag benadrukt dat het hierbij vooral gaat om persoonlijke ervaringen. “Of het gebruik van generatieve AI ook werkelijk op de lange termijn helpend is voor herstel van een psychische aandoening vraagt om uitgebreider onderzoek. Onze resultaten laten zien dat het wel zo wordt ervaren.”

Risico’s en beperkingen

Tegelijkertijd wijst het onderzoek op duidelijke risico’s. AI reageert soms te algemeen en is geneigd mee te gaan in emoties en gedachten van de gebruiker, in plaats van deze kritisch te bevragen. Juist dat kan problematisch zijn bij ernstige psychische klachten.

Er verschijnen steeds meer berichten waarin AI wordt genoemd in relatie tot psychose of suïcidaliteit. Of AI dit daadwerkelijk veroorzaakt, is volgens Holtschlag moeilijk vast te stellen. Het kan nieuwe ideeën aandragen, maar ook bestaande negatieve gedachten versterken.

Ook privacy blijft een belangrijk aandachtspunt. Gesprekken met gratis taalmodellen worden vaak opgeslagen en gebruikt om systemen verder te trainen. “We hebben geen zicht op wat met gebruikersdata gebeurt”, zegt Holtschlag.

Duidelijke kaders nodig

Omdat veel mensen AI als helpend ervaren, pleit MIND voor duidelijke wet- en regelgeving rond het gebruik van generatieve AI bij psychische klachten. De Europese AI Act biedt hiervoor een basis, maar is volgens de organisatie nog onvoldoende toegespitst op dit specifieke domein.

Daarnaast ziet MIND kansen voor speciaal ontwikkelde chatbots die gebaseerd zijn op betrouwbare informatie en samen met professionals en ervaringsdeskundigen worden ontwikkeld. Ook voorlichting over veilig gebruik is volgens de organisatie noodzakelijk.

“In verband met de genoemde risico’s pleiten we voor duidelijke kaders en ethische richtlijnen voor het gebruik”, zegt Holtschlag. Ook een handreiking voor behandelaars is van belang. Hier ligt een rol voor beroepsorganisaties.” Ook onafhankelijk onderzoek en toezicht zijn nodig om kwaliteit, veiligheid en ethiek beter te waarborgen.

Dit artikel gemist? Lees het in editie 6, 2025 van ICT&health en in ons online magazine.