Actie tegen misleidende zorginformatie via deepfakevideo’s

wo 27 augustus 2025 - 14:05
Deepfakes
Security
Nieuws

De KNMG maakt zich ernstig zorgen over het toenemende gebruik van AI-gegenereerde deepfakevideo’s, waarin gezichten en stemmen van artsen zonder hun toestemming worden ingezet voor misleidende gezondheidsboodschappen. Deze deepfakes misbruiken de expertise en reputatie van artsen om foutieve informatie geloofwaardiger te doen lijken. Medische deepfakes dragen, al dan niet opzettelijk, bij aan de verspreiding van misinformatie en desinformatie, wat aanzienlijke risico’s met zich meebrengt voor de gezondheidszorg, de volksgezondheid en het vertrouwen in artsen.

Medische deepfakes zijn gemanipuleerde video’s waarin gezichten en stemmen van artsen levensecht worden nagebootst. De deepfakes worden vervolgens ingezet om producten en diensten aan te bieden of het verspreiden van misleidende, medische informatie. Tegenwoordig zijn deze nepbeelden nauwelijks nog van echte opnames te onderscheiden. Hierdoor wordt het voor mensen moeilijker om betrouwbare, wetenschappelijke medische informatie te onderscheiden van valse of misleidende inhoud.

Schadelijk voor vertrouwensrelatie

Omdat mensen niet goed het onderscheid kunnen maken tussen nepbeelden en echte opnames, is het volgens de KNMG direct een gevaar voor de gezondheid van mensen. Want, wie op basis van zulke video’s verkeerde keuzes maakt, loopt het risico op ernstige of fatale gezondheidsproblemen. De KNMG is ook van mening dat deze trend van nepvideo’s het vertrouwen in artsen schaadt, die ongewild als bron van valse informatie worden neergezet. Het heeft een negatief effect op de professionele reputatie van de artsen en schaadt ook de vertrouwensrelatie tussen artsen en patiënten.

De KNMG roept daarom de overheid, online platforms en maatschappelijke organisaties op om gezamenlijk hard op te treden tegen de productie én verspreiding van medische deepfakes. Effectieve maatregelen zijn nodig tegen zowel makers als verspreiders van de deepfakes, ongeacht of de misleiding bewust of onbedoeld plaatsvindt. Er moeten wat de artsenorganisatie betreft heldere regels komen en strikte handhaving is noodzakelijk om de betrouwbaarheid van medische informatie en het vertrouwen in artsen te beschermen.

Tips voor artsen die slachtoffer worden

Als tips voor artsen die zelf slachtoffer worden van de misleidende video’s geeft de KNMG mee:

  • Bewaar al het bewijs van de deepfake: maak opnames en/of screenshots, noteer de URL's en datum/tijd en bewaar bestanden lokaal.
  • Meld het vermoeden van een deepfake direct bij het platform (YouTube, Facebook, TikTok, etc.) met je het verzamelde bewijs en dien een verwijderverzoek in op grond van de AVG (onjuiste persoonsgegevens, recht op vergetelheid). Verzoek het platform om ook zoekmachines en andere sites te informeren.
  • Informeer je directe collega’s en werkgever over de deepfake, mocht dit van toepassing zijn.

Verder geeft de KNMG tips over mogelijke vervolgstappen wanneer artsen slachtoffer zijn van deepfakes. Als je vervolgstappen wilt ondernemen, zoals het aansprakelijk stellen van de maker of het afdwingen van verwijdering van de deepfake, is het verstandig om een juridisch adviseur in te schakelen. Daarnaast kun je aangifte doen bij de politie wegens identiteitsfraude, smaad of laster. Mocht je verwijderingsverzoek worden afgewezen of helemaal geen reactie opleveren, dan kun je een klacht indienen bij de Autoriteit Persoonsgegevens.

AI in de zorg

Daarnaast schrijft de organisatie op haar website om vooral niet impulsief te reageren op bijvoorbeeld sociale media wanneer artsen ontdekken dat ze slachtoffer zijn van deepfakes. De tips is om vooral te richten op een feitelijke correctie en benoem de mogelijke schade voor de mensen. Deel ook vooral niet de deepfake via online kanalen, ook niet om anderen te waarschuwen, want dit vergroot juist het bereik van de video met de foutieve, misleidende informatie. Als de video veel aandacht krijgt, overweeg dan het afgeven van een officiële verklaring. Overleg daarnaast eventueel met de werkgever over een passende reactie en mogelijke acties richting de eigen patiënten.

Begin dit jaar trad de EU AI Act in werking, een van de eerste EU-brede verzameling van richtlijnen voor het gebruik van AI in de zorg. In Denemarken lopen ze voorop met auteursrecht op stem en gezicht in een poging misbruik, zoals met deepfake video’s, een halt toe te roepen. In Nederland is de Tweede Kamer van plan hetzelfde te doen.

Hoe de zorg haar toekomst inricht? Duizenden zorgprofessionals ontdekken wat echt werkt en verzilveren kansen. Claim ook jouw ticket en ervaar het op het ICT&health World Conference 2026!