CV
Dirk Lukkien is senior onderzoeker bij Vilans en buitenpromovendus bij de Universiteit Utrecht.
Henk Herman Nap is expert digitale zorg bij Vilans en deeltijdhoogleraar bij de Technische Universiteit Eindhoven.
Om onderstaande en alle andere premium artikelen te lezen, moet u inloggen of een account aanmaken.
U kunt nog {free_articles_left} premium artikel gratis lezen. Om meer premium artikelen te lezen, moet u inloggen of een account aanmaken.
Ethische vraagstukken rondom de inzet van AI worden nog niet vanzelfsprekend meegenomen bij de ontwikkeling en implementatie in de zorg. Dirk Lukkien, onderzoeker bij Vilans en buitenpromovendus bij de Universiteit Utrecht, onderzocht hoe verantwoorde AI-innovatie wordt vormgegeven in de langdurige zorg voor ouderen. “Ethische vraagstukken worden vaak als abstract ervaren. En over de gevolgen van AI-inzet op de lange termijn wordt nog beperkt nagedacht.”
Stel, een oudere cliënt heeft sensoren in huis waarmee zorgverleners onder meer kunnen zien waar degene zich bevindt en of hij al is opgestaan. Een aantal jaar geleden was de focus bij de ontwikkeling van dergelijke technologie vooral gericht op de functionaliteit en de gebruikersvriendelijkheid voor de zorgverlener, vertelt Henk Herman Nap, expert digitale zorg bij Vilans, deeltijdhoogleraar bij de Technische Universiteit Eindhoven, en een van de promotoren van Lukkien. “Het ging er met name om dat de zorgverlener makkelijk met de technologie kan werken. Voor de ethische waarden was weinig aandacht. Kan een cliënt het systeem bijvoorbeeld uitzetten als hij dat wenst? Heeft hij die autonomie? En is het transparant en begrijpelijk voor cliënt en zorgverlener wat er met de data gebeurt?”
Nap en Dirk Lukkien zien dat er de afgelopen jaren meer debat is ontstaan over de ethische en sociale vraagstukken van inzet van AI in de zorg. Toch zijn ze nog geen integraal onderdeel van het innovatieproces. De afgelopen jaren was er internationaal een wildgroei aan kaders en richtlijnen. Daarin wordt consequent gewezen op het belang van waarden als privacy, transparantie, autonomie, verantwoordelijkheid en rechtvaardigheid. Maar ze laten ook veel ruimte voor interpretatie en bieden weinig houvast voor verantwoorde toepassing van AI in specifieke contexten. Lukkien onderzocht daarom in zijn promotieonderzoek, dat hij in december verdedigt, hoe verantwoorde AI-innovatie praktisch wordt vormgegeven in de langdurige zorg voor ouderen.
Nap, als coördinator, en Lukkien, als trekker van onderzoek, waren de afgelopen jaren intensief betrokken bij enkele Europese projecten waarin AI-technologieën ter ondersteuning van de ouderenzorg worden ontwikkeld en uitgetest. Bij deze projecten ging het onder andere om een sociale robot en een beslissingsondersteunend dashboard waarop data van verschillende zorg- en welzijnstechnologieën op één plek samen worden gebracht. Beide onderzoekers merkten dat aandacht voor verantwoord innoveren vaak als lastig wordt ervaren.
;Verantwoord opschalen betekent dat je leert van eerdere ervaringen'
Lukkien: “Ethische vraagstukken worden bijvoorbeeld vaak als abstract ervaren of iets dat pas in de toekomst urgent wordt.” Privacyvraagstukken worden over het algemeen wel veel genoemd tijdens de ontwikkelfase, zagen beide onderzoekers. “Dat zijn zaken waar mensen sneller aan denken, ook omdat een aantal jaar geleden de Algemene Verordening Gegevensbescherming (AVG) van kracht is gegaan”, vervolgt Lukkien. “Maar over waarden als autonomie en risico’s op de langere termijn wordt beperkt nagedacht. Zoals dat een zorgverlener zich mogelijk te veel laat leiden door een AI-systeem en zo de kritische blik verliest. Of dat het werkplezier mogelijk onder druk komt te staan als AI vergaand meedenkt over wat een cliënt nodig heeft.”
Daarnaast wordt er vaak vanuit gegaan dat het ontwikkelen en implementeren van AI-toepassingen samen met gebruikers, ook wel co-design genoemd, automatisch tot sociaal wenselijke innovaties leidt. Maar de primaire focus ligt bij co-design vaak op de kansen van innovatie, volgens Lukkien. “En het is net zo belangrijk om na te denken over de mogelijke neveneffecten en hoe je die kunt vermijden. We pleiten dan ook voor meer gebalanceerde en samenhangende aandacht voor kansen en risico’s van AI tijdens het innovatieproces.”
Lukkien interviewde binnen een van de projecten ook verschillende zorgprofessionals, om zo meer zicht te krijgen op kansen en risico’s van AI in de langdurige ouderenzorg. Hij legde de zorgprofessionals verschillende toekomstscenario’s voor waarin AI een steeds grotere rol zou gaan spelen. Uit de interviews kwamen verschillende kansen, risico’s en handelingsopties naar voren. Een belangrijke handelingsoptie is bijvoorbeeld om regelmatig met verschillende betrokkenen te overleggen welke data nou echt nodig zijn om goede zorg te verlenen. Lukkien: “Hoe meer data je verzamelt, hoe meer dingen je vindt die je misschien niet wilt of hoeft op te lossen. Daarnaast is het prettig als AI zorgverleners proactief attendeert op risicofactoren en zorgbehoeften, maar liefst niet zo proactief dat je als zorgverlener niet meer wordt uitgedaagd om zelf na te denken.”
De zorgprofessionals benadrukten ook dat niet iedere collega de ontwikkelingen rond AI even goed kan bijbenen. Daarom is er behoefte aan zorgprofessionals die actief een brug slaan tussen technologie en zorgpraktijk en richting en begeleiding bieden bij een verantwoorde ontwikkeling en implementatie. Dus meedenken met ontwikkelaars over wat echt van meerwaarde is en meekijken met collega’s hoe zij AI-toepassingen zinvol en verantwoord kunnen inzetten.
In zijn laatste studie boog Lukkien zich over de vraag hoe AI-innovaties in de zorg op een verantwoorde manier opgeschaald kunnen worden. Een belangrijk uitgangspunt daarbij is dat het ontwerp en de implementatie van AI-toepassingen moeten worden afgestemd op de waarden en behoeften van gebruikers en andere belanghebbenden. Ouderen kunnen bijvoorbeeld verschillende behoeften en voorkeuren hebben: de een waardeert de veiligheid die AI-gebaseerde monitoring op afstand biedt, terwijl de ander de voorkeur geeft aan minder ingrijpende oplossingen.
Lukkien ziet de toenemende roep vanuit beleidsmakers voor het opschalen van digitale en AI-gedreven innovaties. Maar hij pleit ervoor om opschaling niet simpelweg te beschouwen als meer van hetzelfde op verschillende plekken implementeren. “Verantwoord opschalen betekent dat je leert van eerdere ervaringen en dat je goed kijkt naar de specifieke context en welk maatwerk er nodig is. Dus goed kijken naar de mensen, de routines, werkprocessen en cultuur in een bepaalde organisatie bijvoorbeeld. En ruimte behouden voor flexibiliteit in het ontwerp én de implementatie van AI-toepassingen om tegemoet te komen aan de waarden en behoeften van alle betrokkenen.”
Nap en Lukkien pleiten er daarbij voor om meer te werken aan standaardisatie. Dat lijkt misschien in tegenspraak met het leveren van maatwerk, maar dat is niet zo, menen ze. Lukkien: “Standaardisatie houdt in dat je gezamenlijk afspraken maakt over wanneer de componenten waaruit een AI-toepassing is opgebouwd technisch, ethisch en sociaal robuust zijn. Standaardisatie kan dan een belangrijke rol spelen bij de totstandkoming, de uitwisseling en het hergebruik van betrouwbare AI-componenten. En als er vervolgens ook enige diversiteit en keuzevrijheid is in die componenten, ontstaat ruimte voor maatwerk.”
Lukkien benadrukt dat standaardisatie niet alleen over de technische componenten van AI hoeft te gaan. “Standaardisatie kan ook de systematische uitwisseling en het (her)gebruik van niet-technologische elementen van AI in de zorg stimuleren. Denk aan ervaringskennis die is opgedaan door de implementatie van AI in diverse zorgcontexten. En effectieve trainingsprogramma's om zorgverleners te voorzien van de competenties die nodig zijn om goed met AI om te gaan.”
Nap vult aan: “Standaardisatie kan er ook aan bijdragen dat er een overkoepelende infrastructuur ontstaat die gedeeld wordt door grotere groepen gebruikers, bijvoorbeeld meerdere organisaties. Daarbij is er ook ruimte voor maatwerk. Binnen zorgorganisaties is het momenteel vaak zo dat zorgverleners met meerdere technologische applicaties tegelijk moeten werken. Er zijn bovendien zoveel verschillende data beschikbaar, dat het voor zorgverleners steeds lastiger wordt om te weten waar ze precies op moeten letten.” Het is belangrijk dat al die verschillende systemen goed met elkaar samenwerken en dus interoperabel zijn, benadrukt hij. “Daarnaast kunnen verschillende organisaties veel van elkaar leren en AI-toepassingen met elkaar delen. Ook daarin spelen standaarden een cruciale rol.”