Kunstmatige intelligentie wordt steeds meer een vast onderdeel van de psychologische praktijk, maar tegelijkertijd neemt de ongerustheid onder professionals even snel toe. Uit de Practitioner Pulse Survey 2025 van de American Psychological Association, waaraan 1742 psychologen hebben deelgenomen, blijkt dat de sector digitale hulpmiddelen in hoog tempo omarmt, maar tegelijkertijd kampt met diepgaande ethische en klinische zorgen. Het resultaat is een complex beeld: toenemende experimenten, voorzichtige integratie en een duidelijke vraag naar sterkere waarborgen.
In het afgelopen jaar is het aantal psychologen dat AI-tools gebruikt bijna verdubbeld. Ruim de helft (56%) gaf aan AI in de afgelopen 12 maanden minstens één keer te hebben gebruikt, tegenover 29 procent in 2024. Ook het maandelijkse gebruik is sterk toegenomen: bijna een derde maakt nu minstens één keer per maand gebruik van AI. Deze groei vindt echter vooral plaats op het gebied van administratie en documentatie, en niet in de klinische kern. Psychologen gebruiken AI meestal voor het opstellen van e-mails, het samenvatten van aantekeningen en het verwerken van routinematig papierwerk. Deze tools bieden praktische verlichting in een omgeving waar administratieve eisen clinici te vaak afleiden van de directe patiëntenzorg.
Zorgen over AI in de geestelijke gezondheidszorg
Maar bekendheid heeft niet geleid tot comfort. Maar liefst 92 procent van de psychologen geeft aan bezorgd te zijn over AI in de geestelijke gezondheidszorg. De zorgen over inbreuken op de privacy, algoritmische vooringenomenheid, onvoorziene sociale schade en onbetrouwbare resultaten, zoals hallucinerende informatie, zijn sinds vorig jaar allemaal toegenomen. Deze verschuiving suggereert dat psychologen zich meer bewust worden van de risico's van AI naarmate ze in de praktijk met de technologie te maken krijgen. In plaats van innovatie af te wijzen, pleiten ze voor een afgewogen, transparante en ethisch verantwoorde toepassing ervan.
Arthur C. Evans Jr., PhD, CEO van de APA, benadrukt dat AI kan helpen bij het aanpakken van kritieke problemen zoals burn-out bij clinici en toegangsbarrières, maar dat het geen vervanging kan zijn voor professioneel oordeel. Hij benadrukt dat patiënten erop moeten kunnen vertrouwen dat hun zorgverlener in staat is om onnauwkeurigheden te identificeren, vooringenomenheid te verminderen en gegevens te beveiligen wanneer AI wordt geïntroduceerd in therapeutische omgevingen. Dit standpunt weerspiegelt een breder principe dat in de digitale gezondheidszorg naar voren komt: AI kan de klinische zorg verbeteren, maar menselijk toezicht blijft onontbeerlijk.
AI-diagnostiek
Opvallend is dat psychologen terughoudend blijven om AI te gebruiken voor diagnostische of patiëntgerichte taken. Slechts een kleine minderheid gaf aan gebruik te maken van AI-ondersteunde diagnostische suggesties of chatbot-achtige interacties met patiënten. Deze terughoudendheid onderstreept de bezorgdheid over nauwkeurigheid, aansprakelijkheid en de onvervangbare nuance van menselijke klinische beoordeling. Ondanks de zorgen over automatisering, vreest slechts 38 procent van de psychologen dat AI uiteindelijk aspecten van hun werk zal vervangen. Voor de meesten wordt de technologie minder als een bedreiging gezien en meer als een instrument dat zorgvuldig moet worden beheerd.
Het onderzoek wijst ook op aanhoudende uitdagingen die AI alleen niet kan oplossen. Bijna de helft van de psychologen geeft aan dat ze geen nieuwe patiënten kunnen aannemen. Dit is een duidelijk bewijs dat de crisis in de geestelijke gezondheidszorg onverminderd voortduurt. Verzekeringskwesties, waaronder lage vergoedingen en complexe autorisatievereisten, blijven belangrijke belemmeringen voor de zorg. Zelfs met betere digitale hulpmiddelen blijft de druk op zorgverleners groot.
Geïnformeerde toestemming
Tegen deze achtergrond dringt de APA er bij psychologen op aan om AI alleen toe te passen met geïnformeerde toestemming, duidelijke communicatie over de voordelen en risico's, en een zorgvuldige evaluatie van de privacy-, beveiligings- en gegevenspraktijken van elk hulpmiddel. Voordat AI in de klinische zorg wordt geïntegreerd, moeten psychologen begrijpen hoe patiëntinformatie wordt opgeslagen en gebruikt, en of de technologie grondig is getest op vooringenomenheid en veiligheid.
De resultaten voor 2025 schetsen een beeld van een beroepsgroep die zich op een cruciaal keerpunt bevindt. Psychologen staan open voor innovatie en zijn in toenemende mate afhankelijk van digitale ondersteuning, maar blijven zich sterk inzetten voor ethische richtlijnen die het vertrouwen van patiënten en de therapeutische integriteit beschermen. AI kan helpen bij het moderniseren van de geestelijke gezondheidszorg, maar de succesvolle integratie ervan hangt af van een doordachte, transparante en mensgerichte implementatie, waarden die fundamenteel blijven voor de praktijk van de psychologie.
AI-gestuurde gepersonaliseerde ggz
Eerder dit jaar ontwikkelden onderzoekers van de Universiteit van Illinois Urbana-Champaign een generatief AI-gestuurd raamwerk dat is ontworpen om gepersonaliseerde geestelijke gezondheidszorg en klinische training te verbeteren. Onder leiding van professor Cortney VanHook laat het project zien hoe AI realistische patiënttrajecten kan simuleren, waardoor clinici een veilige omgeving krijgen om behandelplannen, culturele barrières en toegangsproblemen te onderzoeken, zonder afhankelijk te zijn van echte patiëntgegevens.
Met behulp van het platform creëerde het team een gedetailleerde casus voor “Marcus Johnson”, een fictieve jonge zwarte man die aan een depressie lijdt. De AI analyseerde de sociale omgeving, culturele context en stressfactoren van Johnson en genereerde vervolgens een gepersonaliseerd behandelplan op basis van gevestigde modellen zoals het gedragsmodel van Andersen en op metingen gebaseerde zorg. Deze aanpak hielp illustreren hoe AI theoretische kaders, patiëntkenmerken en klinische redeneringen kan combineren om geloofwaardige zorgtrajecten te produceren.