We vertrouwen AI om te doden, maar niet om te genezen

ma 16 maart 2026 - 14:00
AI
Blog

Waarom mogen autonome wapens beslissen over leven en dood, maar mag een algoritme geen antibiotica starten? We hebben een grens overschreden. Stilletjes. Zonder maatschappelijk debat. Zonder parlementaire goedkeuring. AI beslist nu wie er sterft.

In Gaza markeerde een AI-beslissingssysteem, Lavender genaamd, 37.000 mensen als potentieel doelwit (bron). Een algoritme dat elke inwoner een score geeft van 1 tot 100. Boven de drempel? Doelwit. De menselijke 'verificatie' bestond uit het checken van het geslacht. Seconden per beslissing. In Oekraïne produceerden ze vorig jaar twee miljoen drones. AI-geleide exemplaren verhogen het trefpercentage van 20 naar 80 procent. Het doel voor dit jaar: de helft van alle drones autonoom. De machine kiest het doelwit. De machine vliegt. De machine doodt.

Nu de vraag die niemand stelt: als we AI vertrouwen om te doden, waarom vertrouwen we het dan niet om te genezen?

De asymmetrie die we niet willen zien

Laat dat even tot je doordringen. In een oorlogscontext accepteren we dat een algoritme, getraind op telecomdata, bewegingspatronen en social media, iemand op een dodenlijst zet. Met een foutmarge van 10 procent. Met acceptabel "nevenschade" van vijftien tot twintig burgers per individueel doelwit.

Maar in een ziekenhuis? Daar mag AI niet eens zelfstandig een antibioticumkuur starten bij een patiënt die aan het doodgaan is aan sepsis.

Johns Hopkins (bron) ontwikkelde een AI-systeem dat sepsis gemiddeld zes uur eerder detecteert dan traditionele methoden. Zes uur. Bij sepsis kan elk uur vertraging dodelijk zijn. De mortaliteit daalt met 20 procent. Maar het systeem mag alleen adviseren. De arts moet handelen. En als die arts het alarm negeert? Dan sterft de patiënt.

We hebben één, slechts één, autonoom AI-diagnostisch systeem dat zonder arts mag beslissen. IDx-DR, goedgekeurd in 2018, voor diabetische retinopathie. Eén oogziekte. In zeven jaar tijd is daar vrijwel niets bij gekomen.

Ondertussen heeft de oorlogsindustrie in diezelfde zeven jaar de sprong gemaakt van remotely piloted drones naar volledige autonomie. Van "human in the loop" naar "human out of the loop." Bij het doden gaat we snel. Bij het genezen staan we stil.

Dit is geen technisch probleem. De technologie is er. Het is een moreel probleem. En het antwoord ligt niet waar je verwacht.

Het echte obstakel: de witte jas

De weerstand tegen autonome AI in de zorg komt niet van patiënten. Die weten vaak niet eens dat AI meekijkt. Het komt niet van wetgevers. Die lopen sowieso achter. Het komt van mijn collega’s, de artsen.

Onderzoek bevestigt dit keer op keer. AI wordt ervaren als een bedreiging voor de professionele identiteit. Niet als een bedreiging voor de patiënt, maar voor de arts. Artsen vrezen dat hun autonomie in besluitvorming verdwijnt. Dat hun expertkennis minder belangrijk wordt. Dat de afstand tot de patiënt groeit. Artsen beschouwen AI als een "second opinion" die ze zonder aarzeling terzijde kunnen schuiven.

Dit is geen onwil. Dit is existentiële angst. De arts die twintig jaar heeft geïnvesteerd in klinische expertise, ziet een machine die in milliseconden doet waar hij uren over doet. Dat is confronterend. Dat is bedreigend. De reactie van de arts is begrijpelijk en menselijk. Maar het is ook dodelijk.

Want terwijl de arts twijfelt, verergert de sepsis door. Terwijl de radioloog het AI-advies negeert, groeit de tumor. Terwijl de beroepsgroep debatteert over autonomie, sterven er mensen die niet hadden hoeven sterven.

In 2025 gebruikte slechts 16% van de clinici AI voor klinische besluitvorming. Zestien procent. Terwijl autonome drones op industriële schaal over slagvelden razen.

Van human in the loop naar AI in the loop

De luchtvaart heeft dit proces al doorgemaakt. Toen autopilot werd geïntroduceerd, verzetten piloten zich hevig. "Ik vlieg. Ik beslis." Dezelfde existentiële angst. Dezelfde professionele identiteit onder druk. En ja, er waren problemen. Automation bias. Piloten die te veel op het systeem vertrouwden. Vaardigheden die wegzakten. Maar niemand wil meer zonder autopilot vliegen. De luchtvaart is de veiligste transportsector ter wereld geworden. Niet ondanks automatisering, maar dankzij.

De zorg moet dezelfde transitie maken. Niet van mens naar machine. Maar van "human in the loop", waar de mens altijd moet goedkeuren, naar "AI in the loop", waar AI handelt binnen ethische grenzen en de mens alleen nog ingrijpt bij uitzondering.

Hoe ziet dat eruit? Een sepsis alarm dat niet alleen waarschuwt maar direct het sepsisprotocol activeert. Een triagesysteem dat bij een grote ramp autonoom trieert en prioriteert. Een medicatiebewaking die niet suggereert maar blokkeert. Dit alles niet omdat we de arts wantrouwen. Maar omdat we weten dat de arts om drie uur 's nachts, na een dienst van twaalf uur of na zijn twintigste patiënt, dat ene alarm kan missen.

De guardrails zijn helder: transparantie over wat AI doet en waarom. Harde grenzen waarbinnen het systeem mag opereren. Eenvoudige override door de arts. Continue monitoring en bijsturing. Geen black box, maar een glazen box.

Begin met de vraag

We hoeven niet te beginnen met de implementatie. We moeten beginnen met de vraag.

Als je morgen naar je afdeling loopt, stel jezelf dan de volgende vragen: waar in mijn praktijk kost menselijke vertraging levens? Waar zou een autonoom systeem sneller, veiliger, beter handelen? Niet overal. Niet altijd. Maar ergens. Bij die ene patiënt. Op dat ene moment.

We vertrouwen AI om te doden maar niet om te genezen. Dat is geen voorzichtigheid. Dat is een morele blinde vlek. De technologie staat klaar. De patiënten wachten. De enige vraag is: durven wij?