AI ontwikkelt zich in de gezondheidszorg in een ongekend tempo, maar deskundigen waarschuwen dat de innovatie de veiligheidsmaatregelen voorbijstreeft. Onderzoekers van de Flinders University stellen dat AI-systemen weliswaar steeds capabeler worden, maar dat de veiligheid en betrouwbaarheid ervan in de praktijk nog lang niet gegarandeerd zijn.
In een commentaar wijst het team op een groeiende kloof tussen technologische vooruitgang en de kaders die nodig zijn om AI veilig in de klinische praktijk toe te passen. Volgens de auteurs betekent een sterke prestatie in gecontroleerde studies niet automatisch dat het gebruik in ziekenhuizen en klinieken veilig of effectief is. Ondanks deze zorgen erkennen de onderzoekers het aanzienlijke potentieel van AI om zorgprofessionals te ondersteunen, met name in omgevingen met hoge druk waar efficiëntie en beslissingsondersteuning cruciaal zijn.
Klinisch redeneren
Recente ontwikkelingen in AI hebben het vakgebied verder gebracht dan eenvoudige vraag-en-antwoord-systemen. Nieuwe modellen zijn steeds beter in staat om stap voor stap door klinische scenario's te redeneren, waarbij ze aspecten van menselijk diagnostisch denken nabootsen. Volgens Erik Cornelisse, promovendus aan de Flinders University, betekent dit een belangrijk keerpunt. “We evolueren van basistools naar systemen die vormen van klinisch redeneren kunnen demonstreren, althans in tekstgebaseerde scenario’s,” legt hij uit.
Sommige van deze systemen hebben prestatieniveaus laten zien die vergelijkbaar zijn met, of zelfs beter zijn dan die van ervaren clinici bij tests op gestructureerde diagnostische casussen. Dit heeft het optimisme aangewakkerd over hun potentiële rol bij het ondersteunen van medische besluitvorming. De onderzoekers benadrukken echter dat dergelijke resultaten grotendeels gebaseerd zijn op gecontroleerde omgevingen en niet de volledige complexiteit van de gezondheidszorg in de praktijk weerspiegelen.
De grenzen van AI in de klinische praktijk
Besluitvorming in de gezondheidszorg omvat veel meer dan het interpreteren van gegevens of het oplossen van theoretische casussen. Het vereist lichamelijk onderzoek, interactie met de patiënt, contextueel inzicht en ethische verantwoordelijkheid. Elementen die huidige AI-systemen niet kunnen nabootsen. “Beslissingen in de gezondheidszorg zijn complex, hebben grote gevolgen en zijn zeer menselijk”, zegt Cornelisse. “Nauwkeurigheid alleen, met name bij tekstgebaseerde taken, is niet voldoende om de veiligheid van patiënten te waarborgen.”
Senior auteur Ash Hopkins voegt hieraan toe dat de moderne geneeskunde afhankelijk is van oordeelsvermogen, verantwoordelijkheid en professioneel toezicht. Hoewel AI kan helpen bij het analyseren van informatie, kan het de bredere klinische rol van zorgprofessionals niet vervangen. Deze kloof benadrukt het risico van het overschatten van de gereedheid van AI-tools voor routinematig gebruik. Zonder de juiste validatie en integratie kunnen zelfs zeer nauwkeurige systemen tot onbedoelde gevolgen leiden.
Risico's van voortijdige implementatie
Het commentaar wijst ook op bekende risico's die gepaard gaan met slecht geëvalueerde AI-systemen. Deze omvatten algoritmische vertekening, ongelijke toegang tot zorg en mogelijke schade aan patiënten. Als AI-modellen worden getraind op onvolledige of niet-representatieve datasets, kunnen ze bestaande ongelijkheden versterken in plaats van ze te verminderen.
“De geschiedenis leert ons dat algoritmen problemen net zo gemakkelijk kunnen versterken als ze oplossen,” waarschuwt Cornelisse. Dit onderstreept de noodzaak van grondige tests en voortdurende monitoring voor en tijdens de implementatie. De onderzoekers benadrukken dat gezondheidszorgsystemen moeten vermijden om AI in te voeren louter omdat het goed presteert in experimentele omgevingen. In plaats daarvan moeten resultaten in de praktijk, zoals verbeterde gezondheid en veiligheid van patiënten, de primaire maatstaf zijn.
Verantwoord en gereguleerd gebruik van AI
Met het oog op de toekomst pleit het Flinders-team voor strenger toezicht en duidelijkere normen voor medische AI. Zij stellen dat AI-systemen moeten voldoen aan normen die vergelijkbaar zijn met die welke gelden voor zorgprofessionals. “We staan niet toe dat artsen zonder toezicht en evaluatie hun beroep uitoefenen,” zegt Cornelisse. “AI moet aan vergelijkbare verwachtingen voldoen.” Het commentaar is onlangs gepubliceerd in Science.
Er worden al inspanningen geleverd door beleidsmakers, onderzoekers en belanghebbenden uit de sector om de juridische, ethische en professionele verantwoordelijkheden voor AI in de gezondheidszorg te definiëren. De onderzoekers benadrukken echter dat een zorgvuldige, stapsgewijze integratie in klinische werkprocessen essentieel is. Volgens Hopkins is het uiteindelijke doel niet om AI snel in te zetten, maar om het op verantwoorde wijze in te zetten. “Patiënten verdienen technologie die de zorg in de praktijk verbetert, niet alleen systemen die goed presteren in studies”, zegt hij.
Als AI doordacht wordt geïmplementeerd, heeft het de potentie om de klinische besluitvorming te verbeteren, de efficiëntie te verhogen en een meer rechtvaardige zorg te ondersteunen. Maar om dit te bereiken is een evenwicht tussen innovatie en toezicht nodig. Terwijl zorgsystemen de mogelijkheden van AI blijven verkennen, is de boodschap van Flinders University duidelijk: vooruitgang moet gepaard gaan met verantwoordelijkheid. Alleen door zorgvuldig ontwerp, rigoureuze evaluatie en sterk bestuur kan AI een werkelijk veilig en effectief hulpmiddel in de moderne geneeskunde worden.
Toepassing van AI in de zorg
Vorig jaar werd de TU Delft gevraagd om de WHO te adviseren over het feit dat slechts ongeveer 2 procent van de AI-innovaties voor de zorg daadwerkelijk wordt gebruikt. Belemmeringen zijn onder meer een slechte afstemming op de klinische praktijk, ethische bezwaren en algoritmische vertekening. Samen met partners zoals het Erasmus MC en SAS ontwikkelt de TU Delft kaders voor verantwoord AI-gebruik in de gezondheidszorg. Deze worden getest in de klinische praktijk, bijvoorbeeld in projecten die AI gebruiken om het juiste moment voor veilig ontslag uit het ziekenhuis te bepalen.