Amper 8% Europese WHO-lidstaten heeft een strategie voor AI in de zorg

wo 19 november 2025 - 10:25
AI
Nieuws

Het rapport Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region (AI verandert zorgstelsels: stand van zaken in de Europese regio van de WHO) presenteert de eerste regiobrede beoordeling van de integratie van AI in de gezondheidszorg, op basis van gegevens die zijn verzameld bij 50 lidstaten via de enquête 2024-2025. Hieronder volgen de belangrijkste bevindingen.

AI vaker toegepast, maar zelden strategisch

AI maakt in hoog tempo de overstap van experimentele pilots naar praktische implementatie. 64% van de lidstaten maakt al gebruik van AI-ondersteunde diagnostiek en 50% zet AI-aangedreven chatbots in voor patiënten ondersteuning.

"Van het triëren van patiënten en het analyseren van diagnostische beelden tot het verbeteren van de nationale gezondheidsmonitoring en het vormgeven van precisievolksgezondheid: AI wordt nu toegepast in klinieken, ziekenhuizen en ministeries in onze hele regio. De afgelopen jaren is AI verschoven van een theoretisch hulpmiddel naar een realtime partner in de gezondheidszorg", aldus dr. Hans Henri P. Kluge, regionaal directeur van de WHO voor de Europese regio.

Uit het rapport blijkt echter dat slechts 8% (vier van de 50) van de lidstaten nationale AI-strategieën voor de gezondheidszorg heeft gepubliceerd, terwijl nog eens 14% (zeven) daarmee bezig is. Ondertussen heeft 66% (33 van de 50) nationale sector overschrijdende AI-strategieën, waarin gezondheidszorg als een van de domeinen is opgenomen. Dit geeft aan dat hoewel veel landen de rol van AI in de gezondheidszorg erkennen, slechts enkele landen beleid hebben dat specifiek op gezondheidszorgstelsels is afgestemd.

Sector overschrijdende strategieën zijn weliswaar gunstig voor harmonisatie, maar houden vaak geen rekening met de specifieke regelgevende, ethische en operationele vereisten van de gezondheidszorgsector. Gezondheid specifieke strategieën maken gericht toezicht, betere coördinatie en gerichte investeringen mogelijk, maar brengen het risico van fragmentatie met zich mee als ze niet worden afgestemd op het bredere digitale en AI-beleid.

Wat toezicht betreft, wijst 46% (19 van de 41) van de lidstaten de uitvoering van de strategie toe aan een bestaande overheidsinstantie, terwijl nog eens 46% de verantwoordelijkheden over meerdere instanties verdeelt. Slechts 12% (vijf) heeft nieuwe overheidsinstanties opgericht die specifiek gericht zijn op AI-governance. Dit toont aan dat er een voorkeur bestaat voor het integreren van AI-governance in bestaande structuren, hoewel dit ook kan leiden tot diffuse verantwoordingsplicht en een tragere implementatie.

AI-geletterdheid blijft achter bij technologische ontwikkelingen

Het rapport laat zien dat 72% (36 van de 50) van de lidstaten belanghebbenden heeft betrokken bij de discussie over AI in de gezondheidszorg. Toch blijft de betrokkenheid voornamelijk beperkt tot deskundigen, vertegenwoordigers van de industrie en overheidsfunctionarissen. De meest geraadpleegde partijen waren overheidsactoren (81%), zorgverleners (75%) en AI-ontwikkelaars (75%), terwijl patiëntenverenigingen (42%) en het bredere publiek (22%) het minst betrokken waren. Slechts 28% maakte de resultaten van het overleg openbaar, wat de transparantie en het delen van kennis beperkt.

Deze onevenwichtigheid brengt risico's met zich mee: AI-oplossingen kunnen mogelijk niet voldoen aan de behoeften in de praktijk, vooroordelen versterken of het vertrouwen van het publiek verminderen. Bovendien vormt onvoldoende opleiding van het personeel een belangrijke belemmering. Slechts 24% (12 van de 50) biedt AI-training tijdens de dienst aan en 20% (10) biedt AI-opleiding voorafgaand aan de dienst aan. Bovendien heeft slechts 42% (21 van de 50) nieuwe professionele functies gecreëerd op het gebied van AI en datawetenschap. Deze tekorten duiden op een ontoereikende voorbereiding op AI-gestuurde gezondheidsdiensten.

Om hier verandering in te brengen, beveelt de WHO aan om modellen voor co-ontwerp en co-regulering op te zetten waarbij patiënten, clinici, beleidsmakers en ontwikkelaars worden betrokken, het onderwijs op het gebied van digitale technologie en AI in medische opleidingen, verpleegkunde, volksgezondheid en aanverwante beroepen uit te breiden, en nieuwe gespecialiseerde functies te creëren, zoals klinisch datawetenschappers, AI-ethici en AI-veiligheidsauditors.

Uitdaging in verantwoordelijkheid: onopgelost

De juridische voorbereiding op AI in de gezondheidszorg is nog in ontwikkeling. Hoewel 46% (23 van de 50) van de lidstaten de juridische lacunes heeft beoordeeld, heeft slechts 8% (vier) aansprakelijkheidsnormen voor AI in de gezondheidszorg ontwikkeld. Bovendien heeft slechts 6% (drie) wettelijke vereisten voor generatieve AI-systemen in de gezondheidszorg ingevoerd.

Een belangrijk punt van zorg is het gebrek aan duidelijke verantwoordingsplicht wanneer AI-systemen schade toebrengen aan patiënten of niet goed functioneren. Zonder duidelijke aansprakelijkheidsregels kunnen clinici aarzelen om AI te gebruiken of er juist te veel op vertrouwen, waardoor de veiligheid van patiënten in gevaar komt. Bovendien varieert de toepassing van ethische richtlijnen sterk, en zijn monitoring na het in de handel brengen en toezicht in de praktijk nog steeds zeldzaam.

De aanbevolen maatregelen omvatten het opstellen van duidelijke aansprakelijkheidskaders, waarin de verantwoordelijkheden van ontwikkelaars, clinici, gegevensleveranciers en instellingen worden uiteengezet; het implementeren van robuuste monitoring na het in de handel brengen; ervoor zorgen dat AI-systemen na implementatie nauwkeurig, veilig en onbevooroordeeld blijven; en het bevorderen van verklaarbare AI (XAI) om de transparantie, traceerbaarheid en klinisch vertrouwen te verbeteren.

Data-infrastructuur heeft prioriteit, gereedheid voor EHDS is zeer laag

AI is afhankelijk van veilige, hoogwaardige, interoperabele gegevens. 66 % (33 van de 50) van de lidstaten heeft een nationale strategie voor gezondheidsgegevens, terwijl 76 % (38 van de 50) kaders voor het beheer van gezondheidsgegevens heeft of aan het ontwikkelen is. Bovendien heeft 66 % (33 van de 50) regionale of nationale gezondheidsgegevenshubs opgezet, waardoor gegevens kunnen worden gedeeld en AI-modellen kunnen worden getraind.

Slechts 30 % (15 van de 50) heeft echter richtlijnen uitgevaardigd voor het secundaire gebruik van gezondheidsgegevens, en nog eens 30 % heeft regels voor grensoverschrijdende gegevensuitwisseling. De resultaten zijn zorgwekkend: Europa implementeert de European Health Data Space (EHDS), die tot doel heeft de uitwisseling van primaire gegevens en het secundaire gebruik van gegevens voor onderzoek en innovatie te vergemakkelijken. Ook de samenwerking tussen volksgezondheidsinstellingen en AI-ontwikkelaars uit de particuliere sector is niet overal op dezelfde manier gereguleerd.

Investeren of niet investeren in AI?

AI-tools worden gebruikt, maar op ongelijke wijze. 64 % (32 van de 50) van de lidstaten meldde AI-ondersteunde diagnostiek, waarmee dit de meest gebruikte toepassing is. 50 % (25) meldde het gebruik van AI-aangedreven chatbots voor patiënten ondersteuning. Deze toepassingen hebben betrekking op door de lidstaten vastgestelde prioritaire gebieden, zoals verbetering van de patiëntenzorg (98%), vermindering van de druk op het personeel (92%) en verbetering van de efficiëntie van het gezondheidszorgstelsel (90%).

Slechts 52% (26 van de 50) heeft echter prioritaire AI-gebieden aangewezen en nog minder hebben specifieke financiering toegewezen. Dit zorgt voor een kloof tussen strategie en uitvoering.

De grootste belemmering voor de invoering van AI is juridische onzekerheid, zoals gemeld door 86% (43 van de 50) van de lidstaten. De op één na meest voorkomende belemmering is financiële betaalbaarheid, zoals gemeld door 78%. De meeste landen zijn het erover eens dat duidelijke aansprakelijkheidsregels (92%) en richtlijnen inzake transparantie en verklaarbaarheid (90%) essentieel zijn voor de invoering van AI. Om de belemmeringen weg te nemen, kunnen regelgevende sandboxes worden geïmplementeerd om AI veilig te testen in de praktijk onder gecontroleerde omstandigheden.

Uit de bevindingen van de enquête van de WHO voor de Europese regio voor 2024-2025 blijkt dat AI in toenemende mate wordt erkend als een strategische prioriteit op het gebied van gezondheid. Toch blijven er aanzienlijke verschillen bestaan op het gebied van governance, personeelscapaciteit, data-infrastructuur en ethische regelgeving.


Hoe de zorg haar toekomst inricht? Duizenden zorgprofessionals ontdekken wat echt werkt en verzilveren kansen. Claim ook jouw ticket en ervaar het op het ICT&health World Conference 2026!