Radiologen én geavanceerde AI-modellen blijken moeite te hebben om door AI gegenereerde röntgenbeelden te onderscheiden van echte opnames. Dat blijkt uit een internationale studie. De onderzoekers waarschuwen dat deze zogenoemde deepfakes serieuze risico’s vormen voor de betrouwbaarheid van medische beeldvorming en de veiligheid van zorgprocessen.
Deepfakes zijn beelden die met behulp van AI zijn gegenereerd of gemanipuleerd en nauwelijks van echt te onderscheiden zijn. In het onderzoek kregen 17 radiologen uit zes landen in totaal 264 röntgenbeelden te beoordelen, waarvan de helft kunstmatig was gegenereerd. Wanneer zij niet wisten dat er deepfakes tussen zaten, herkende slechts 41 procent deze spontaan. Na expliciete waarschuwing steeg de gemiddelde nauwkeurigheid naar 75 procent, met grote variatie tussen individuele beoordelaars.
Ook vier multimodale AI-modellen, waaronder GPT-4o, GPT-5, Gemini en Llama, presteerden wisselend, met detectienauwkeurigheden tussen de 52 en 89 procent. Opvallend is dat zelfs het model dat de beelden genereerde, niet alle deepfakes correct kon herkennen. Het onderzoek is onlangs gepubliceerd in Radiology.
Risico’s voor diagnostiek en cybersecurity
Volgens de onderzoekers creëert deze ontwikkeling nieuwe kwetsbaarheden. Zo zouden gemanipuleerde beelden kunnen worden ingezet bij fraude of juridische claims, bijvoorbeeld door een niet-bestaande fractuur te presenteren als echt. Daarnaast bestaat het risico dat kwaadwillenden synthetische beelden in ziekenhuissystemen injecteren, met mogelijke gevolgen voor diagnoses en patiëntveiligheid.
De studie toont bovendien aan dat ervaring geen garantie biedt: het aantal jaren werkervaring van radiologen had geen duidelijke invloed op hun vermogen om deepfakes te herkennen. Wel bleken musculoskeletale specialisten iets beter in staat afwijkingen te detecteren.
‘Te perfecte’ beelden als signaal
Deepfake röntgenbeelden vertonen volgens de onderzoekers vaak subtiele kenmerken, zoals onnatuurlijk gladde botstructuren, symmetrische longvelden of ‘te nette’ fracturen. Toch zijn deze signalen in de praktijk lastig te herkennen.
Om misbruik te voorkomen pleiten de onderzoekers voor technische en organisatorische maatregelen. Denk aan digitale watermerken en cryptografische handtekeningen die direct bij het maken van beelden worden toegevoegd. Ook training van zorgprofessionals en de ontwikkeling van detectietools zijn essentieel.
Volgens de onderzoekers is dit pas het begin: de volgende stap is de opkomst van deepfake 3D-beelden, zoals CT- en MRI-scans. Juist daarom is het volgens hen cruciaal om nu te investeren in detectie en bewustwording binnen de zorg.
Wetsvoorstel
Deepfakes zijn, ook in de zorg, een groeiend fenomeen. En dan met name het gebruik van stem en uiterlijk van (bekende) medici, die misbruikt worden om nepnieuws, of verkeerde medische informatie te verspreiden. In Nederland wordt mede daarom hard gewerkt aan een wetsvoorstel dat het gebruik van deepfakes beter moet reguleren.
De voorgestelde wet geeft mensen expliciet het recht om het gebruik van hun stem en uiterlijk toe te staan of te verbieden, waardoor ook zorgprofessionals meer controle krijgen over hun digitale identiteit. Daarnaast wordt het meet de nieuwe wet eenvoudiger om juridisch op te treden tegen deepfakes, zowel civielrechtelijk als strafrechtelijk. Daarmee draagt het voorstel bij aan het tegengaan van medische desinformatie en het behoud van vertrouwen in de zorg.