Terwijl veel zorginstellingen hun heil zoeken in het aanstellen van Chief AI Officers, wijst AI-onderzoeker Ethan Mollick van de Wharton School op een fundamentele waarheid: de meest waardevolle expertise om AI te omarmen, bestaat al! Met name binnen je eigen organisatie, verspreid over die cruciale 1-2 procent van medewerkers die in stilte met AI-oplossingen pionieren. De vraag is niet óf deze tools werken, maar hóe organisaties ze snel, veilig en effectief kunnen integreren op schaal.
Vooruitstrevende ziekenhuizen realiseren zich dat de kracht niet alleen in algoritmes ligt, maar in het koesteren van wendbare, multidisciplinaire teams, zo schrijft ICT&health redactieraadlid Bart Collet in een recente editie van ICT&health. Deze interne ‘acceleratie-teams’ opereren als startups binnen de ziekenhuisomgeving, waarbij ze snel prototypen, testen en itereren van AI-toepassingen in gerichte klinische scenario's.
De cijfers spreken boekdelen. Volgens marktinzichten van de American Hospital Association schaalt minder dan 15 procent van AI-pilots effectief. Cruciale succesfactor? Agile, cross-functionele teams die als scout-bijen nieuwe nectarbronnen verkennen, ideeën snel valideren en klinische integratie waarborgen.
Een opvallend voorbeeld is de samenwerking tussen Christus Health (Amerikaanse zorgsysteem) en Abridge (AI-transcriptie) voor klinische documentatie. Hun organisatie-brede uitrol gebeurde in amper acht dagen en resulteerde in 78 procent reductie van cognitieve belasting voor artsen. Een recente rondvraag toont aan dat 53 procent de implementatie classificeerde als ‘zeer succesvol’.
MCP: datastekker die alles verandert
Maar zelfs de meest wendbare teams stuiten op een hardnekkig probleem: data-fragmentatie. Loop door een willekeurige ziekenhuisafdeling en je ziet clinici jongleren met een half dozijn digitale systemen, waarbij elk zijn eigen stukje van een patiëntverhaal bewaakt. Een MRI verscholen in een radiologie-archief, bloedresultaten in een laboratoriumdatabase, medicatie-notities in een verouderd elektronisch patiëntendossier, etc.
Het Model Context Protocol (MCP) biedt een andere toekomst. Zie het als USB-C voor zorgdata: één enkele poort die elke compatibele AI-applicatie de context laat opvragen die het nodig heeft. In plaats van maatwerk-integraties voor elke individuele silo te schrijven, bouwen ontwikkelaars éénmaal een MCP en spreken onmiddellijk de taal van elektronische patiëntendossiers, apotheeksystemen of zelfs de smartwatch van een patiënt.
Het voorkomen van zelfs een fractie van ongeplande opnames bespaart levens en maakt capaciteit vrij voor effectieve zorg. Een studie van de European Hospital and Healthcare Federation schatte dat gefragmenteerde informatie gemiddeld 2,5 miljoen euro per jaar kost aan handmatige reconciliatiekosten voor een ziekenhuis van 500 bedden.
Vertrouwen versus begrip
Deze technologische vooruitgang brengt ons bij een provocerende realiteit. Stelt u zich voor: een oncologie-AI stelt een behandelplan voor dat het menselijk begrip overstijgt. Het plan is niet fout: het is simpelweg voorbij het huidige menselijke begrip. De clinicus, traditioneel de scheidsrechter van medische beslissingen, wordt plotseling een interpretator, belast met het arbitreren tussen meerdere geavanceerde AI's.
Zoals Andrej Karpathy, voormalig AI-directeur bij Tesla, recent uitlegde: "Taal is het nieuwe binair." Naarmate AI evolueert, weerspiegelen zijn outputs steeds meer menselijke redeneerpatronen, om uiteindelijk bovenmenselijk te worden. We naderen wat we de ‘omgekeerde Turing-test’ kunnen noemen, waarbij de vraag niet is of AI menselijke intelligentie nabootst, maar of mensen hun eigen redenering herkennen binnen AI's geavanceerde oplossingen.
Paradox van perfectie
Toch blijft de zorgverlening gevangen in debatten over AI's onvolkomenheden, waarbij vaak de menselijke feilbaarheid genegeerd wordt. Onderzoek gepubliceerd in JAMA toonde aan dat 20 procent van de door mensen gegenereerde klinische notities fouten bevat. Maar menselijke transcriptie wordt lang niet zo uitgebreid onder de loep genomen. Deze ongelijkheid illustreert een kernprobleem: de selectieve controle die we toepassen.
Misschien hangt ons voortbestaan (en onze innovatie) er binnenkort van af van hoe we antwoorden omarmen die we nog niet volledig kunnen begrijpen. Daarom mijn vraag aan u, beste lezer: zou u een ondoorgrondelijke maar veilige, door AI ontwikkelde behandeling vertrouwen? Laat het me weten: bart@hyperadvancer.com.
Meer weten: lees over het 10-stappenplan voor AI-implementatie van Bart Collet in ICT&health 4, 2025. Of lees het in ons online magazine.