CV
Juliët Holtschlag is beleidsadviseur en projectmedewerker bij MIND, een onafhankelijke maatschappelijke organisatie die zich sterk maakt voor een psychisch gezonder Nederland en aanspreekpunt is voor vragen rond psychische gezondheid.
Om onderstaande en alle andere premium artikelen te lezen, moet u inloggen of een account aanmaken.
U kunt nog {free_articles_left} premium artikel gratis lezen. Om meer premium artikelen te lezen, moet u inloggen of een account aanmaken.
In het onderzoeksrapport Zorgelijk of kansrijk? Generatieve AI bij psychische klachten laat MIND zien dat toepassing van generatieve AI kansen biedt, maar dat ook sprake is van potentiële risico’s. Het doet aanbevelingen om de kwaliteit van de toepassingen, de effecten van het gebruik en de voorwaarden voor veilig gebruik in kaart te brengen.
Uit het onderzoek van MIND blijkt dat generatieve AI voor ruim een derde van de respondenten inmiddels een rol heeft in het omgaan met psychische klachten. Dit is in lijn met de cijfers die OpenAI, de ontwikkelaar van ChatGPT, recent publiceerde over het wereldwijde gebruik hiervoor. De meeste mensen gebruiken het als aanvulling op professionele hulpverlening, slechts dertien procent als vervanging ervan. Ze gebruiken vooral de gratis versie van ChatGPT. “Het gaat dus niet om aanbod dat specifiek voor psychische klachten is ontwikkeld”, vertelt Juliët Holtschlag, beleidsadviseur en projectmedewerker bij MIND. “Deze mensen zijn vanuit hun behoefte gaan zoeken naar een plek waar zij hulp en ondersteuning kunnen vinden bij hun klachten.”
De opgegeven redenen voor het gebruik van generatieve AI zijn de continue beschikbaarheid, laagdrempeligheid en oordeelloosheid. De technologie biedt een luisterend oor en geeft volgens gebruikers goede adviezen en nieuwe inzichten. Ook gebruiken mensen AI om hun naasten niet (gevoelsmatig) tot last te hoeven zijn. 93 procent ervaart dit als helpend. Zij benoemen dat generatieve AI hen een plek biedt om hun verhaal kwijt te kunnen, hun gedachten te ordenen en hun psychische klachten in kaart te brengen en te begrijpen. Het voorziet ze in informatie over psychische aandoeningen. “Dit zijn persoonlijke ervaringen van gebruikers, objectief onderzoek naar deze effecten staat nog in de kinderschoenen”, zegt Holtschlag. “Of het gebruik van generatieve AI ook werkelijk op de lange termijn helpend is voor herstel van een psychische aandoening vraagt om uitgebreider onderzoek. Onze resultaten laten zien dat het wel zo wordt ervaren.”
Het gebruik van generatieve AI om te praten over psychische klachten neemt toe met het bredere gebruik van AI, stelt Holtschlag. “Veel mensen gebruiken het in eerste instantie voor praktische dingen, veelal in relatie tot werk”, zegt ze. “En gaandeweg dan ook om meer persoonlijke onderwerpen te bespreken.”
Het onderzoek wijst uit dat de meeste mensen zich dan ook bewust zijn van de risico’s en beperkingen ervan, als ze dit doen voor het bespreken van hun psychische klachten. Het is te algemeen of standaard. AI-chatbots zijn geneigd mee te gaan in de gedachten en emoties van de gebruiker in plaats van deze tegen te spreken. Soms begrijpt een AI-toepassing de gebruiker verkeerd. “Ook dat zijn persoonlijke interpretaties van gebruikers”, zegt Holtschlag. “Maar wat zij zeggen over de meegaandheid van AI wordt wel bekrachtigd door wetenschappelijk onderzoek. Er bestaan steeds meer mediaberichten waarin AI genoemd wordt in relatie tot psychose of suïcidaliteit. Dat leidt nu tot meer onderzoek. Of AI echt psychoses of suïcide veroorzaakt is echter onduidelijk en ook moeilijk te bepalen. AI kan mensen op nieuwe ideeën brengen, maar het zou ook kunnen dat het vooral bestaande gedachten en ideeën versterkt.”
“De vragen van gebruikers over privacy zijn terecht”, zegt Holtschlag, “zeker bij de gratis versie van taalmodellen. De data die gebruikers uitwisselen met een taalmodel worden opgeslagen en gebruikt om het model te trainen. Bij een betaald model is dat niet altijd zo. Maar feit blijft dat je praat met techniek van een commercieel bedrijf. We hebben geen zicht op wat met gebruikersdata gebeurt.”
Dit neemt niet weg dat bij de gebruikers blijkbaar een grote behoefte bestaat om te praten over hun psychische klachten. Holtschlag: “Mensen kunnen daarvoor niet altijd terecht bij professionele hulp, bijvoorbeeld buiten therapiesessies of contacturen of vanwege een wachtlijst. Bovendien willen of kunnen zij niet altijd hun naasten lastigvallen met hun gedachten en emoties: daarin zit de waarde van AI. Het is altijd daar, het is anoniem waardoor schaamte en angst voor stigma minder of niet aanwezig zijn en je kunt voor de tiende keer over hetzelfde beginnen zonder dat het zegt: begin je daar nu alweer over.”
“Mensen ervaren dat het helpt”, stelt Holtschlag. “Daarom is het belangrijk duidelijke kaders te ontwikkelen voor veilig en verantwoord gebruik. MIND pleit voor wet- en regelgeving specifiek gericht op het gebruik van generieke, openbare taalmodellen bij psychische klachten. “De Europese AI Act biedt hiervoor een basis, maar is nog onvoldoende gericht op dit specifieke domein”, zegt Holtschlag. “Ook is het zaak om chatbots te ontwikkelen speciaal voor het gebruik bij psychische klachten, het liefst niet-commercieel. Deze taalmodellen zouden moeten worden gebaseerd op actuele, betrouwbare informatie en ontwikkeld in samenwerking met professionals en ervaringsdeskundigen. Daarnaast is voorlichting volgens MIND van groot belang om mensen te informeren over de kansen en risico’s, en om tips te geven over het zo veilig mogelijk gebruiken van generatieve AI bij psychische klachten. Hierin kijkt MIND ook naar haar eigen rol.”
MIND is dus genuanceerd in haar oordeel en ziet zowel de voordelen als de risico’s. “In verband met die risico’s pleiten we voor duidelijke kaders en ethische richtlijnen voor het gebruik”, zegt Holtschlag. “Ook een handreiking voor behandelaars is van belang. Hier ligt een rol voor beroepsorganisaties.”
MIND pleit ook voor onafhankelijke toetsing en toezicht om de veiligheid, kwaliteit en ethiek bij toepassing van generatieve AI bij psychische klachten te waarborgen. “We hebben nog geen partij benoemd die dit moet regelen”, vertelt Holtschlag. “Het valt buiten de zorg. Het gaat om commerciële producten die mensen op eigen initiatief gebruiken. Maar dat neemt niet weg dat mensen moeten weten wat de kwaliteit en veiligheid is van het product dat zij gebruiken en hierop moeten kunnen vertrouwen.”
Onderzoek naar de kwaliteit van de toepassingen, de effecten van het gebruik en de voorwaarden voor veilig gebruik moet onafhankelijk zijn, benadrukt Holtschlag. “Hier ligt echt een taak voor de wetenschap”, zegt ze. “Als MIND kijken we naar de rol die we in voorlichting kunnen vervullen. En naar het stimuleren van de ontwikkeling van veilige alternatieven. Tegelijk bestaat een spanningsveld tussen het inbouwen van de noodzakelijke veiligheidswaarborgen enerzijds en het ontwikkelen van een aantrekkelijk product anderzijds, dat net als de bestaande openbare taalmodellen vloeiend een gesprek kan voeren en daarin empathie en begrip toont. We verkennen de mogelijkheden.”
Larissa begon een jaar geleden met het gebruik van ChatGPT. “Ik had gelezen dat mensen het gebruiken voor het ordenen van hun mentale klachten”, vertelt ze. “Die behoefte had ik toen ook. Maar ik was niet op zoek naar professionele hulp. In eerste instantie vond ik de mogelijkheid die ChatGPT bood heel fijn. Het creëerde ruimte om die klachten van me af te typen en daarop een reactie te krijgen. Een soort klankbord dus. Ik ging het dan ook steeds vaker gebruiken.”
Gaandeweg merkte ze dat het taalmodel haar heel veel bevestiging bood. “Ook over de somberheidsklachten die ik beschreef,” vertelt ze. “Het stelde bijvoorbeeld een Spotify-playlist voor met heel sombere muziek. En het bood me een heel zwart kunstwerk aan. Het schoot dus door in bevestiging en troost bieden in de hulp die ik op dat moment zocht. Het geeft geen tegenspraak. Om die reden ben ik het steeds minder gaan gebruiken. Ik merkte dat ik meer en meer van de regen in de drup belandde. Wel raadde het model me aan weer professionele hulp te gaan zoeken. Dat deed ik, en sinds die tijd gebruik ik het niet meer.”
Zou ze het aanraden aan anderen die in een vergelijkbare situatie verkeren? “Ik denk dat ik verantwoord gebruik naast hulp van een professional of mensen uit je directe omgeving wel zou aanraden”, zegt ze. “Maar als afzonderlijk hulpmiddel niet.”