Een bijzondere rechtszaak in Californië zorgt voor een andere kijk op het toenemende gebruik van AI-ondersteunde verslaglegging in de zorg. In de zaak, aangespannen bij de rechtbank in San Diego, wordt zorgorganisatie Sharp HealthCare ervan beschuldigd gesprekken tussen artsen en patiënten te hebben opgenomen zonder expliciete schriftelijke toestemming. Die gesprekken zouden zijn gebruikt voor automatische medische verslaglegging met behulp van een AI-oplossing van een technologiebedrijf uit Pittsburgh.
Hoewel de rechtszaak zich richt op één zorgaanbieder, raakt zij aan een veel bredere ontwikkeling: de stille, maar snelle opmars van zogenoemde ambient clinical documentation in de dagelijkse praktijk. Steeds meer ziekenhuizen en zorginstellingen zetten AI in om consultgesprekken automatisch om te zetten in medische notities, met als doel administratieve lasten te verminderen en artsen meer tijd te geven voor de patiënt.
Grote verschillen
Uit reacties van verschillende zorgaanbieders in de regio San Diego blijkt dat er grote verschillen zijn in hoe met deze technologie wordt omgegaan. Sommige instellingen werken met pilots waarbij expliciete patiënttoestemming vereist is, zowel schriftelijk als mondeling. Andere geven aan uitgebreide security- en privacychecks te hebben uitgevoerd voordat zij dergelijke systemen in gebruik namen. Tegelijkertijd zijn er ook organisaties die geen openheid willen geven over hun inzet van AI-transcriptie, of aangeven de technologie (nog) niet te gebruiken.
Sharp HealthCare zelf zegt patiëntveiligheid en privacy altijd voorop te stellen, maar kan vanwege de lopende procedure inhoudelijk niet reageren. De aanklacht stelt dat medische consulten heimelijk zijn opgenomen en via cloudsystemen zijn doorgestuurd naar Abridge, een bedrijf dat AI-oplossingen voor medische verslaglegging ontwikkelt en inmiddels op grote schaal wordt ingezet in de ambulante zorg.
Technologie, toestemming en vertrouwen
Abridge positioneert zijn technologie als volledig HIPAA-compliant en benadrukt dat het artsen ondersteunt bij verslaglegging, niet bij diagnostiek of besluitvorming. Op de eigen website adviseert het bedrijf zorgverleners nadrukkelijk om patiënttoestemming te vragen en biedt het voorbeeldzinnen om dit transparant te doen. Tegelijkertijd blijft onduidelijk in hoeverre gesprekken uit de dagelijkse praktijk worden gebruikt om AI-modellen verder te trainen, ook al stelt het bedrijf dat onderzoek en ontwikkeling plaatsvinden met geanonimiseerde en met toestemming verkregen data.
Privacy-experts waarschuwen dat transparantie en expliciete, herhaalbare toestemming essentieel zijn wanneer gesprekken worden opgenomen. Toestemming mag volgens hen geen formaliteit zijn die verdwijnt in standaardpapierwerk, maar moet bewust, geïnformeerd en herroepbaar zijn.
Grenzen aan AI in de zorg
De discussie raakt aan een fundamentelere vraag: waar ligt de grens tussen ondersteunende technologie en klinische besluitvorming? In de VS is recent wetgeving ingevoerd die bepaalt dat medische beslissingen uitsluitend door bevoegde zorgprofessionals mogen worden genomen, mede als reactie op het gebruik van AI door verzekeraars.
In dit geval lijkt de inzet van AI beperkt tot documentatie, waarbij artsen eindverantwoordelijk blijven voor de inhoud van het dossier. Toch maakt de zaak duidelijk dat vertrouwen in digitale zorg niet alleen draait om technische compliance, maar ook om heldere communicatie, governance en ethiek. De vraag of AI thuishoort in de spreekkamer is daarmee niet alleen technologisch, maar vooral bestuurlijk en maatschappelijk van aard.
Europa en Nederland
In Europa en Nederland wordt ook veel gediscussieerd over ethische en privacy gerelateerde uitdagingen als het gaat om de integratie en het gebruik van AI-toepassingen en de data die daarvoor gebruikt en opgeslagen worden. De EU heeft vorig jaar werk gemaakt van AI-wetgeving in de vorm van de AI Act. Daarin zijn onder andere diverse richtlijnen bepaald over hoe om te gaan met AI en wat er wel en niet mag. Denk bijvoorbeeld aan het gebruik, of (commercieel) uitbuiten van gevoelige patiëntgroepen, het illegaal verzamelen en verwerken van biometrische data of het inzetten van AI-algoritmen die emoties kunnen herkennen.
Daarnaast hebben we in Europa natuurlijk ook de GDPR privacywetgeving (AVG in Nederland) waarin bepaald is hoe om te gaan met het opslaan en gebruik van persoonlijke, en dus ook medische, gegevens. AI-toepassingen voor automatische verslaglegging van gesprekken tussen arts en patiënt, zoals Dragon Medical One, moeten, en zijn, GDPR compliant.
Auteur