Onderzoekers van de Universiteit van Illinois Urbana-Champaign hebben een innovatief raamwerk ontwikkeld dat gebruikmaakt van generatieve AI om gepersonaliseerde geestelijke gezondheidszorg te bevorderen. Het onderzoek, geleid door professor in sociaal werk Cortney VanHook, laat zien hoe AI zorgtrajecten in de praktijk kan simuleren, waardoor clinici en onderzoekers meer inzicht krijgen in toegangsbarrières, hun culturele gevoeligheid kunnen verbeteren en de behandelresultaten kunnen verbeteren.
Met behulp van het AI-platform creëerde het team een gedetailleerde, gesimuleerde casus voor een fictieve cliënt, Marcus Johnson, een jonge zwarte man met depressieve symptomen. De AI analyseerde de persoonlijke en sociale context van Johnson, waaronder zijn ondersteuningsnetwerk, stress op het werk en culturele barrières voor zorg.
Gepersonaliseerde behandeling
Het systeem genereerde vervolgens een gepersonaliseerd behandelplan met behulp van evidence-based kaders zoals het gedragsmodel van Andersen, de vijf componenten van toegang en op metingen gebaseerde zorg. Door deze modellen toe te passen, toonden de onderzoekers aan hoe AI patiëntgegevens, theoretische modellen en klinische redeneringen kan integreren om realistische behandelingspaden te genereren. VanHook benadrukte dat de aanpak een veilige, privacyconforme omgeving biedt voor clinici, studenten en stagiaires om interventies te onderzoeken zonder gebruik te maken van echte patiëntgegevens.
“Dit werk gaat verder dan theorie”, aldus VanHook. “Het is een praktische, evidence-based manier om AI te integreren in het onderwijs en de praktijk van de geestelijke gezondheidszorg, waardoor clinici inzicht krijgen in bevolkingsgroepen die ze misschien niet vaak tegenkomen en waardoor de cultureel competente zorg wordt verbeterd.”
Het potentieel van AI voor de toegang tot ggz
De studie benadrukt ook het potentieel van AI om ongelijkheden in de toegang tot geestelijke gezondheidszorg te verminderen. Aangezien alle drie de auteurs, VanHook, Daniel Abusuampeh (Universiteit van Pittsburgh) en Jordan Pollard (Universiteit van Cincinnati), zichzelf identificeren als zwarte mannen, hebben ze zich gericht op het waarborgen dat de simulatie een accurate weergave is van de systemische en culturele barrières waarmee zwarte mannen vaak worden geconfronteerd in het Amerikaanse geestelijke gezondheidszorgsysteem.
De onderzoekers waarschuwen echter dat AI beperkt is door de gegevens waarop het is getraind, die mogelijk niet volledig de complexiteit en emotionele nuances van klinische ontmoetingen weerspiegelen. “Generatieve AI kan nog niet alle factoren die van invloed zijn op de geestelijke gezondheidszorg in kaart brengen”, aldus VanHook, “maar het kan ons helpen om meer rechtvaardige systemen te begrijpen en te ontwerpen.”
Het onderzoek komt op een moment dat er steeds meer aandacht is voor AI in de gezondheidszorg. Volgens de nieuwe Wellness and Oversight for Psychological Resources Act van Illinois mogen AI-tools in de geestelijke gezondheidszorg alleen worden gebruikt voor educatieve en administratieve doeleinden. VanHook is van mening dat dit kader in overeenstemming is met die richtlijnen en een veilige, gecontroleerde manier biedt om AI te gebruiken voor onderwijs en klinische training. Het onderzoek is gepubliceerd in het tijdschrift Frontiers in Health Services.
“AI geeft nu al een nieuwe vorm aan de toekomst van de zorg”, aldus VanHook. “Onze uitdaging is nu om ervoor te zorgen dat het op verantwoorde wijze wordt gebruikt, om te onderwijzen, te trainen en uiteindelijk clinici te helpen bij het leveren van meer gepersonaliseerde, toegankelijke en effectieve geestelijke gezondheidszorg.”
Laagdrempelige steun bij psychische klachten
Uit een peiling van MIND, enkele maanden geleden, blijkt dat generatieve AI steeds vaker wordt gebruikt door mensen met psychische klachten. Ruim een derde (36%) van de deelnemers praat weleens met een AI-chatbot over mentale problemen, waarvan 44 procent dit als helpend ervaart. De belangrijkste voordelen zijn de laagdrempeligheid, anonieme beschikbaarheid en het niet-oordelende karakter van AI. Gebruikers waarderen dat chatbots altijd luisteren en helpen bij het verwoorden van gevoelens of het voorbereiden van therapiesessies.
De groeiende populariteit weerspiegelt bredere problemen in de geestelijke gezondheidszorg, zoals lange wachttijden en gebrek aan vertrouwen in bestaande zorgstructuren. Tegelijkertijd waarschuwt MIND voor risico’s rond privacy, bias en betrouwbaarheid, omdat AI-systemen geen vervanging zijn voor professionele hulp. MIND pleit daarom voor meer onderzoek naar de kansen en risico’s van AI in de psychische zorg, en voor de ontwikkeling van veilige, mensgerichte toepassingen die als aanvulling kunnen dienen op bestaande ondersteuning.
Verantwoordelijke toepassing AI in ggz
De ggz, zo schreven Michiel van Vliet en Marjolijn de Kruijf begin dit jaar al, staat voor de uitdaging om AI verantwoord te implementeren, terwijl duidelijke richtlijnen en professionele standaarden nog ontbreken. AI-toepassingen bevinden zich veelal in de pilotfase, bijvoorbeeld voor gespreksverslagen, suïcidepreventie en triage via chatbots. Op termijn wordt verwacht dat AI ook wordt ingezet voor medicatievoorspellingen en real-time behandelondersteuning.
Het toepassen van AI is complex: naast technische prestaties spelen ook juridische, ethische en organisatorische factoren een rol. Zo moet duidelijk zijn wie verantwoordelijk is bij fouten, hoe privacy en informed consent worden gewaarborgd, en dat de behandelaar altijd eindverantwoordelijk blijft. Omdat veel instellingen onvoldoende expertise hebben, ontbreekt vaak een uniforme beoordeling van AI-systemen.
Daarom pleiten experts voor de ontwikkeling van een gemeenschappelijk framework dat het verantwoord gebruik van AI faciliteert. Zo’n raamwerk zou criteria bevatten voor doelmatigheid, bias, transparantie, klinische effectiviteit en impact op patiënt en zorgproces. Een voorbeeld is het Evidence Standards Framework van NICE, dat als inspiratie kan dienen voor de Nederlandse ggz. Dit zou leiden tot meer veiligheid, lagere kosten en een betrouwbare standaard voor AI in de geestelijke gezondheidszorg.