Generatieve AI in de zorg? Wees verantwoord en effectief
vr 22 augustus 2025
AI
Premium
Om onderstaande en alle andere premium artikelen te lezen, moet u inloggen of een account aanmaken.
U kunt nog {free_articles_left} premium artikel gratis lezen. Om meer premium artikelen te lezen, moet u inloggen of een account aanmaken.
Intensivist en AI-specialist Jessica Workum (Elisabeth-TweeSteden Ziekenhuis, ETZ) is sinds kort lid van de redactieraad van ICT&health. Zij staat te popelen om haar ervaringen met én enthousiasme over AI in de zorg te delen. Volgens Workum zijn de belangrijkste criteria voor het gebruik van (generatieve) AI in de zorg dat het op een zowel verantwoorde als effectieve manier moet gebeuren. “Houd het enthousiasme over AI vast, want er zit enorm veel potentie in.”
Het ETZ heeft een speciaal team dat is toegewijd aan AI. Het team bestaat uit verschillende ICT’ers en medici en heeft als doel om AI in de volle breedte van de organisatie te waarborgen. Workum legt uit: “De visie en strategie van het ETZ is dat we AI verantwoord en effectief willen toepassen, anticiperend op de toekomst. Daarbij implementeert het ETZ bestaande AI-toepassingen, maar ontwikkelt ze in principe zelf niet. Hiervoor is innovatie- en speelruimte nodig, omdat de snelle veranderingen in het AI-veld betekenen dat tool al geïmplementeerd worden voordat bewezen is dat ze effectief zijn.”
“In de zorg moeten we op zorgvuldige wijze met technologie omgaan”, vertelt Workum. “Hierbij borgen we de privacy van patiënten en leren we zorgverleners hoe ze met AI om moeten gaan. Maar effectief AI-gebruik is net zo belangrijk, want het moet onder de streep wel iets opleveren. AI moet bijdragen aan de doelen van de organisatie. Dat kan het verbeteren van de kwaliteit van zorg zijn, maar in Nederland is de hoge werkdruk van zorgverleners op dit moment een groter probleem. Daarom is een van de belangrijkste doelen van dit moment het verlagen van die werkdruk, bijvoorbeeld door met behulp van AI de administratieve last van de zorgverlener te verkleinen.”
AI gaat volledig ingebed worden in de maatschappij, en dus ook in de zorg, aldus Workum. “We kunnen niet onder AI uit. We kunnen ons nu ook niet meer inbeelden dat we in de zorg met papieren patiëntendossiers werken in plaats van elektronische dossiers. AI mag nu nog relatief nieuw zijn, maar ik verwacht dat het over een paar jaar breed ingezet zal worden in de zorg. Zorgverleners dragen daarin een belangrijke verantwoordelijkheid, omdat zij ook moeten waarborgen dat de implementatie van AI zorgvuldig gebeurt.”
De vraag is wanneer een AI-tool goed genoeg is om ingezet te worden in de zorg. “Dat is lastig te bepalen”, vertelt Workum. “Natuurlijk wil je dat implementatie van AI zorgvuldig gebeurt, maar we vergeten soms dat als je onterecht te lang wacht met de implementatie van een effectieve AI-toepassing - alleen omdat je bang bent om een fout te maken - je patiënten mogelijk ook tekortdoet.”
Als voorbeeld beschrijft Workum het uitblijven van goedkeuring voor zelfrijdende auto’s op onze wegen. “Uit onderzoek blijkt dat zelfrijdende auto’s veiliger rijden dan mensen. Maar omdat het verantwoordelijkheidsvraagstuk nog niet is opgelost, zijn zelfrijdende auto’s hier nog niet beschikbaar. Er is een balans die uitmaakt wanneer een innovatie goed genoeg is, en ik denk dat een belangrijk vraagstuk is om te bepalen wanneer dat het geval is.”
Eén van de AI-toepassingen waar Workum écht enthousiast van wordt, is ambient listening. “In het Nederlands noemen we dat soms spraakgestuurd rapporteren, maar die term omvat de toepassing naar mijn mening niet volledig. Bij spraakgestuurd rapporteren denk je namelijk aan een zorgverlener die zit te dicteren, maar ambient listening is breder dan dat. Bij deze AI-toepassing is er het liefst helemaal geen computer in de ruimte, maar in ieder geval geen beeldscherm tussen patiënt en zorgverlener. Zij voeren een normaal gesprek met elkaar, wat op de achtergrond wordt opgenomen en getranscribeerd. Vervolgens kunnen taalmodellen heel veel doen met het transcript.”
Ook de ernst van een fout is belangrijk. Wat is acceptabel?
Het meest bekende voorbeeld is het maken van een gestructureerde klinische notitie. Maar er is veel meer mogelijk. Workum: “Bijvoorbeeld een systeem dat orders klaarzet op basis van de inhoud van het gesprek, zoals voor bloedprikken of een controleafspraak. Het liefst geeft de AI-toepassing, gekoppeld aan protocollen, richtlijnen of de meest recente wetenschappelijke literatuur, dan ook aan welke onderzoeken er bij deze patiënt nog meer gedaan moeten worden, waarmee AI als medische beslisondersteuning dient.”
Idealiter kan daar nog meer informatie aan gekoppeld worden, zoals de voorgeschiedenis van de patiënt zelf, of die van diens familie. Of zelfs aan genetische informatie en data uit een smartwatch. “De mogelijkheden zijn echt eindeloos.”
Wat Workum betreft, zijn er drie grote uitdagingen bij het gebruik van AI in de zorg. “Allereerst het gebrek aan validatie, ten tweede de lage kwaliteit van geregistreerde data en ten derde een gebrek aan soevereiniteit en afhankelijkheden”, vertelt ze. “Met gebrek aan validatie bedoel ik dat de kwaliteit van de output goed genoeg is om te gebruiken in de zorg vóórdat de output bij de zorgverlener komt. Om terug te komen op het voorbeeld van ambient listening, hier is het belangrijk dat een gestructureerde notitie die door AI wordt gemaakt correct is vóórdat de zorgverlener deze moet beoordelen. Natuurlijk zal de zorgverlener de notitie nog moeten controleren voordat deze definitief onderdeel wordt van het patiëntendossier.”
“We weten echter dat mensen door automation bias op den duur te makkelijk de output van AI kritiekloos overnemen, zeker als ze net een drukke dienst hebben gedraaid”, gaat Workum verder. “Daarom moeten er afspraken gemaakt worden over waar een notitie kwalitatief aan moet voldoen en moeten leveranciers transparant zijn over de kwaliteit van hun AI-tool. In het RIGH:T-consortium houden wij ons bezig met hoe we generatieve AI kwalitatief kunnen beoordelen. Eén component is het aantal fouten, maar ook de ernst van een fout is belangrijk. Wat is acceptabel?”
De tweede uitdaging voor AI in de zorg is de kwaliteit van de data. Workum: “Garbage in is garbage out. Als ik een AI-model gebruik dat op basis van bloeddrukmetingen voorspelt of een patiënt binnen 24 uur naar de intensive care moet, maar er bijvoorbeeld 10 bloeddrukmetingen ontbreken in het dossier, dan zal AI nooit een goede voorspelling doen.” Generatieve AI heeft het voordeel dat het iets beter om kan gaan met ongestructureerde data. Toch is het altijd belangrijk om ervoor te zorgen dat de data die het AI-model ingaan kloppen en representatief zijn.
Tot slot is de afhankelijkheid die de zorg heeft van organisaties buiten de zorg een belangrijke uitdaging. Workum is groot voorstander van samenwerken met de industrie, omdat zonder leveranciers weinig van dit soort innovatieve technologieën daadwerkelijk aan het bed terecht komen. “Maar als een grote partij besluit om iets niet te ontwikkelen, kun je als kleine partij hoog of laag springen, maar het gebeurt niet. Enerzijds wil je dus waardevolle samenwerkingen hebben tussen zorg en industrie, maar anderzijds moeten afhankelijkheden toch geminimaliseerd worden. Samenwerkingsinitiatieven van zorginstellingen zijn hierin erg belangrijk.”
Aan de lezers van ICT&health geeft Workum graag de volgende boodschap mee over AI in de zorg: “Het belangrijkste is om van elkaar te leren, het wiel niet opnieuw uit te vinden, kennis te delen en om de balans te vinden tussen voldoende innovatiesnelheid en verantwoordelijke inzet van generatieve AI.”