AI werkt pas wanneer je kunt zien wat er met de data gebeurt

wo 17 december 2025 - 10:30
AI
Blog

Veel zorginstellingen hebben een lijst met AI-pilots op een bureau liggen. Toch blijft dat lijstje vaak weken liggen zonder dat iemand het oppakt. De techniek zelf werkt meestal prima. Het lastige is alleen dat niemand precies kan aanwijzen waar de data die in een AI-toepassing gestopt worden, terechtkomen.

Stelt je dit tafereel voor: in een vergaderruimte kijkt een bestuurder naar een AI-demo. Het model vat een dossier samen en toont direct een advies. Zodra iemand vraagt wie gisteren toegang had tot de ingevoerde gegevens, valt het stil. De demo wordt afgesloten, komt in een map ‘te beoordelen’ terecht en blijft daar maanden staan.

Dat stille moment, precies daar waar bewijs ontbreekt, bepaalt vaker dan iets anders of een AI-pilot door mag.

Wanneer AI-pilots blijven steken

Veel AI-pilots beginnen duidelijk en overzichtelijk. Teams voeren testgegevens in, zetten twee schermen naast elkaar en bespreken wat ze zien. Dat werkt prima tot iemand vraagt waar die gegevens precies staan. Als niemand een scherm kan openen waarop dat zichtbaar wordt, valt het gesprek stil.

Bestuurders moeten kunnen aanwijzen waar informatie staat, wie een document opende en op welk tijdstip dat gebeurde. Zij moeten ook kunnen laten zien dat gegevens binnen Nederland blijven en niet in systemen van externe aanbieders terechtkomen. Zonder dat bewijs kan niemand onderbouwen waarom een volgende stap verantwoord is, en daar is de zorg te kwetsbaar voor.

Aanwijsbaar bewijs

Veiligheid ontstaat niet door een geruststellende zin. Het ontstaat wanneer iemand een dashboard opent en letterlijk ziet hoe gegevens door het systeem bewegen. Wanneer een logregel toont dat een gebruiker om 14.03 uur een document opende en dat dat de laatste handeling van die dag was. Wanneer een rapport opnieuw wordt gedraaid en dezelfde regels in dezelfde volgorde verschijnen.

Dat zijn sporen die je kunt aanwijzen. Daarmee kan een bestuurder naar een toezichthouder stappen en laten zien wat er gebeurde. Als zulke sporen ontbreken, blijft veiligheid van data iets dat je moet geloven. En geloof helpt een AI-pilot geen stap verder.

Hoe wildgroei ontstaat

In veel instellingen begint AI met losse probeersels. Iemand gebruikt een vertaaltool voor een e-mail. Een team laat ChatGPT een alinea herschrijven. Een medewerker bewaart een prompt in een persoonlijk account om die later terug te vinden.

Na een paar weken zijn er tientallen ingangen ontstaan waar gegevens doorheen gaan. Niemand kan nog aanwijzen welk document via welke tool het gebouw uit is gegaan. Op het dashboard ziet een beheerder alleen een groen vinkje bij ‘actief’, terwijl niemand ziet welke gegevens ondertussen welke route nemen.

IT-teams merken die wildgroei vaak pas op wanneer iemand vraagt: ‘Kunnen jullie laten zien waar deze tekst vandaan komt?’ Dan blijkt dat dezelfde tekst via verschillende tools het gebouw uit is gegaan, zonder dat iemand dat eerder zag.

Afgebakende werkruimte

Een afgeschermde AI-ruimte geeft houvast omdat iedereen op dezelfde plek werkt. Zie het als één digitale kamer waar iedereen via dezelfde deur binnenkomt. Die deur registreert elke binnenkomst. Alles wat daarbinnen gebeurt, een samenvatting, een vraag, een test, laat een spoor achter dat later is terug te lezen.

Nieuwe tools komen pas binnen nadat iemand heeft gecontroleerd waar ze gegevens neerzetten. Rollen bepalen wie welke mappen mag openen. Aan het einde van een test kan iemand precies aanwijzen welke medewerker welke stap zette.

Daardoor blijft er ruimte om te experimenteren terwijl gegevens niet via allerlei uitgangen naar buiten kunnen glippen. Zoals Arlon Antonius, Head of Tech Solutions van PAQT, zegt: “Infrastructuur bouwt vertrouwen.”

Wat bestuurders moeten kunnen aanwijzen

Vier zichtbare onderdelen bepalen of een AI-initiatief verantwoord is:

  1. Waar de gegevens staan. Een kaart of scherm waarop te zien is dat alle opslag binnen Nederland blijft.
  2. Wie erbij kon. Een loglijst waarop staat: deze medewerker opende dit document op dat tijdstip.
  3. Welke gegevens vitaal of bedrijfskritiek zijn. Een duidelijke scheidslijn tussen medische informatie en ondersteunende informatie.
  4. Of dezelfde controle morgen opnieuw werkt. Een audit die je vandaag en morgen kunt draaien met dezelfde uitkomst.

Wanneer één van deze onderdelen ontbreekt, kan niemand volledig uitleggen wat er met de gegevens gebeurt. Als ze wél zichtbaar zijn, verdwijnt de twijfel of de data veilig en onder controle is.

Bewijs verandert gesprek

Wanneer dashboards, loglijsten en rapportages zichtbaar worden, schuift het gesprek aan tafel meteen een andere kant op. Overleggen gaan niet langer over vermoedens, maar over regels in een logbestand of lijnen die op het scherm zichtbaar zijn.

Teams pakken hun tests weer op. Pilots die weken in een map lagen, worden opnieuw geopend. Beleidsmakers schrijven richtlijnen terwijl de schermen met voorbeelden naast hen liggen. Voorzichtigheid werkt dan niet tegen, maar helpt bepalen welke stap wél gezet kan worden.

AI werkt pas met zichtbaar fundament

AI wordt bruikbaar wanneer een organisatie alles kan aanwijzen. Een scherm waarop staat: hier staat de data. Een logregel waarop je ziet wie het bestand opende. Een melding die laat zien dat niets het gebouw verlaat zonder dat iemand dat ziet.

Dat zichtbare fundament haalt spanning uit keuzes. Het maakt ruimte voor kleine stappen, pilots die doorgroeien en projecten die in rust kunnen worden opgebouwd.

Zonder dat fundament blijft elke toepassing onzeker. Mét dat fundament wordt AI een gereedschap dat het dagelijkse werk lichter maakt, zonder nieuwe zorgen toe te voegen.

Lees ook deze recente blog van PAQT over veilig gebruik van AI-toepassingen.


Door innovation partner

Hoe de zorg haar toekomst inricht? Duizenden zorgprofessionals ontdekken wat echt werkt en verzilveren kansen. Claim ook jouw ticket en ervaar het op het ICT&health World Conference 2026!