Meer vergevingsgezindheid leidt tot meer vertrouwen in AI
vr 24 oktober 2025
Column
Premium
Referenties
Bronnen
Schoonbeek, R., Workum, J., Schuit, S.C.E., Doornberg, J., Van der Laan, T.P., Bootsma-Robroeks, C.M.H.H.T. (2024). Completeness, Correctness and Conciseness of Physician-Written Versus Large Language Model Generated Patient Summaries. SSRN.
NRC (2019). Radioloog wordt datawetenschapper. NRC, 18 juli 2019.
SMER (2020). Artificial intelligence in healthcare. The Swedish National Council on Medical Ethics.
Ministerie van VWS (2023). Nationale visie en strategie op het gezondheidsinformatiestelsel. Den Haag.
ICT&health maakt op deze website gebruik van cookies en vergelijkbare technieken. Wij gebruiken cookies om ervoor te zorgen dat onze website goed functioneert, om uw voorkeuren op te slaan, om inzicht te krijgen in bezoekersgedrag, maar ook voor marketingdoeleinden. Meer informatie vindt u op onze privacy policy.
Cookie instellingen
Accepteer alle cookies
Cookie instellingen
Pas de cookie-instellingen aan naar jouw persoonlijke voorkeur en bevestig jouw keuze. Noodzakelijke cookies zijn altijd noodzakelijk om deze website te kunnen bezoeken. U kunt uw voorkeur op ieder moment wijzigen of intrekken.
Noodzakelijk
(1)
Google Analytics
Het bijhouden van geanonimiseerde bezoekersstatistieken bij het gebruik van de website.
Functioneel
(2)
Google Analytics
Het bijhouden van persoonlijke bezoekersstatistieken bij het gebruik van de website.
Google Tag Manager
Het beheren van tags en het bijhouden van gegevens over het gebruik van de website.
Marketing
(1)
Google Ads
Het tonen van gerichte advertenties op basis van het gebruik van de website.
AI in de zorg. Voor de een is het een nachtmerriebeeld van kille algoritmes die het menselijk contact verdringen. Voor de ander een belofte van efficiëntere, vriendelijkere en zelfs betrouwbaardere zorg. Maar één vraag loopt als een rode draad door dit debat: vertrouwen we AI voldoende om de voordelen te kunnen benutten? Voor een heel belangrijk deel wordt dat vertrouwen beïnvloed door de fouten die een AI-toepassing maakt.
Uit onderzoek, ja al een tijdje geleden, in UMC Utrecht (NRC, 2019) blijkt dat we algoritmes systematisch strenger beoordelen dan menselijke experts (zie kader onderaan). Vertrouwen groeit echt niet door technische transparantie alleen – niemand verwacht dat een arts de werking van een MRI-scanner tot in de magnetische details kent of uitlegt aan elke patiënt. Vertrouwen groeit door ervaring, door herhaald bewijs dat de uitkomsten betrouwbaar zijn in de context waarin ze worden gebruikt maar vooral wat voor emotie en gevoel we hebben bij de fouten die worden gemaakt. En pas dan zijn we geïnteresseerd in de feitelijke foutmarge.
Een kwestie van gevoel
We beoordelen AI-toepassingen en helemaal LLM’s (Large Language Models) vooral vanuit gevoel. We zijn minder vergevingsgezind bij een hallucinatie dan een verkeerde uitleg van een arts. Een belangrijke reden hiervoor kan gevonden worden in de constatering dat AI-fouten vaak van een andere aard zijn dan menselijke fouten - vaak geen slordigheid, maar hallucinaties of onverklaarbare uitschieters.
Die onvoorspelbaarheid in fouten door AI maakt ons meer ongerust dan bij menselijke fouten1. Ook omdat we niet goed weten wat we er mee moeten. En we de volgende keer dus ook met minder vertrouwen de uitkomsten weer tegemoet zien (pas op! LLM’s hallucineren!). Hoe zouden we de spreekkamer in lopen als op elke straathoek een poster hing met Pas op! Uw dokter maakt fouten! En natuurlijk heeft dat te maken met de torenhoge verwachtingen die we hadden bij AI en LLM’s: verwachtingen die gelukkig al wat realistischer worden.
AIptimisme
Tegelijkertijd is er natuurlijk ook veel reden voor optimisme over het vertrouwen in AI-toepassingen. Wanneer AI medische dossiers samenvat, blijkt de kwaliteit van die samenvattingen minstens zo goed als die van artsen. In een studie van Schoonbeek et al. (2024) gaven artsen en patiënten zelfs méér vertrouwen aan de AI-versies (81%) dan aan die van mensen (77%).
En bewijst AI zich ook al in patiëntcommunicatie en in preventieve toepassingen. Een beetje ‘AIptimisme’ is dus wel gerechtvaardigd – mits we de moed hebben om van die gekke fouten te leren in plaats van ze af te straffen met wantrouwen.
Verborgen valuta
Vertrouwen is daarmee geen bijzaak, maar de verborgen valuta van AI in de zorg. Zonder vertrouwen geen acceptatie, zonder acceptatie geen vooruitgang. Dat betekent een beetje meer vergevingsgezindheid; het betekent de uiteindelijke foutmarges en impact op gezondheidsuitkomsten wat meer met de menselijke maat meten dan alleen gevoel. En misschien is dat wel de belangrijkste constatering: niet transparantie, niet de toepassing, maar ons vertrouwen bepaalt of de pAIn uiteindelijk gAIn wordt.