AI kan een grote rol spelen in de vroegtijdige diagnose en behandeling van psychische aandoeningen, maar roept ook cruciale vragen op over privacy en gegevensbescherming. Onderzoekers van de Technische Universität Darmstadt en het Indian Institute of Technology (IIT) Delhi, onder leiding van prof. dr. Iryna Gurevych, hebben een richtlijn voor het veilig en verantwoord ontwikkelen van AI-systemen binnen de geestelijke gezondheidszorg ontwikkeld.
Psychische aandoeningen behoren wereldwijd tot de belangrijkste oorzaken van arbeidsongeschiktheid. Diagnose vereist vaak tijdrovende gesprekken met specialisten, terwijl het tekort aan gekwalificeerde therapeuten blijft toenemen. AI biedt hier kansen door subtiele signalen in spraak, taalgebruik en gezichtsuitdrukking te analyseren – maar dit vraagt om toegang tot zeer gevoelige patiëntdata.
Nieuwe aanpak voor privacybescherming
De onderzoekers van het Ubiquitous Knowledge Processing (UKP) Lab aan TU Darmstadt en IIT Delhi presenteren een ontwikkelmodel voor privacybewuste AI-systemen. Dit omvat onder meer:
- het verwijderen van persoonlijk identificeerbare informatie,
- anonymisering van stem- en videodata,
- het gebruik van synthetische datasets,
- en nieuwe vormen van privacyvriendelijke trainingsmethoden.
“AI kan therapeuten ondersteunen bij het stellen van een nauwkeuriger diagnose, maar alleen als het vertrouwen van de patiënt gegarandeerd blijft,” zegt Gurevych. De ‘routekaart’ is onlangs gepubliceerd in Nature Computational Science.
Samenwerken voor verantwoorde AI
De studie is onderdeel van een internationale samenwerking binnen het NLPsych-project, waarin experts werken aan data-gedreven oplossingen op het snijvlak van taalverwerking en mentale gezondheid. Het onderzoek werd mede gefinancierd door het Duitse Ministerie van Onderwijs en Onderzoek (BMBF) en het Hessische Ministerie van Wetenschap en Kunst (HMWK), binnen het kader van het Nationaal Onderzoekscentrum voor Toegepaste Cybersecurity (ATHENE).
Met deze aanpak willen de onderzoekers laten zien dat AI en privacy elkaar niet hoeven uit te sluiten, maar juist kunnen samenwerken voor veiligere en effectievere geestelijke gezondheidszorg.
Toegankelijke ggz
Vorig jaar schreven we over een Brits onderzoek dat aantoonde hoe Limbic Access, een AI-gestuurde zelfverwijzingschatbot binnen de Engelse NHS, de toegankelijkheid van geestelijke gezondheidszorg aanzienlijk vergroot. De chatbot maakt het mogelijk dat mensen zonder tussenkomst van een arts direct ondersteuning zoeken via een website of app. Tijdens een interactief gesprek brengt de AI hun behoeften in kaart en verwijst hen door naar passende zorg.
Volgens therapeuten maakt de chatbot gesprekken met patiënten efficiënter en persoonlijker, omdat administratieve lasten afnemen. Het onderzoek benadrukt het potentieel van AI om barrières te verlagen en diversiteit en inclusie in de geestelijke gezondheidszorg te bevorderen.