Ethische vraagstukken rondom de inzet van AI worden nog niet vanzelfsprekend meegenomen bij de ontwikkeling en implementatie in de zorg. Dirk Lukkien, onderzoeker bij Vilans en buitenpromovendus bij de Universiteit Utrecht, onderzocht hoe verantwoorde AI-innovatie wordt vormgegeven in de langdurige zorg voor ouderen. “Ethische vraagstukken worden vaak als abstract ervaren”, vertelt hij in editie 5 van ICT&health. “En over de gevolgen van AI-inzet op de lange termijn wordt nog beperkt nagedacht.”
Dirk Lukkien ziet dat er de afgelopen jaren meer debat is ontstaan over de ethische en sociale vraagstukken van inzet van AI in de zorg. Toch zijn ze nog geen integraal onderdeel van het innovatieproces. De afgelopen jaren was er internationaal een wildgroei aan kaders en richtlijnen. Daarin wordt consequent gewezen op het belang van waarden als privacy, transparantie, autonomie, verantwoordelijkheid en rechtvaardigheid.
Maar ze laten ook veel ruimte voor interpretatie en bieden weinig houvast voor verantwoorde toepassing van AI in specifieke contexten. Lukkien onderzocht daarom in zijn promotieonderzoek, dat hij in december verdedigt, hoe verantwoorde AI-innovatie wordt vormgegeven in de langdurige zorg voor ouderen.
Ontwikkeling AI-technologie
Henk Herman Nap (expert digitale zorg bij Vilans, deeltijdhoogleraar bij de TU/e), een van de promotoren van Lukkien Nap, was als coördinator de afgelopen jaren intensief betrokken bij enkele Europese projecten waarin AI-technologieën ter ondersteuning van de ouderenzorg worden ontwikkeld en uitgetest. Lukkien was als trekker van onderzoek hierbij betrokken.
Bij deze projecten ging het onder andere om een sociale robot en een beslissingsondersteunend dashboard waarop data van verschillende zorg- en welzijnstechnologieën op één plek samen worden gebracht. Beide onderzoekers merkten dat aandacht voor verantwoord innoveren vaak als lastig wordt ervaren.
Lukkien: “Ethische vraagstukken worden bijvoorbeeld vaak als abstract ervaren of iets dat pas in de toekomst urgent wordt.” Privacyvraagstukken worden over het algemeen wel veel genoemd tijdens de ontwikkelfase, zagen beide onderzoekers. “Dat zijn zaken waar mensen sneller aan denken, ook omdat een aantal jaar geleden de Algemene Verordening Gegevensbescherming (AVG) van kracht is gegaan”, vervolgt Lukkien. “Maar over waarden als autonomie en risico’s op de langere termijn wordt beperkt nagedacht.”
Co-design niet voldoende
Daarnaast wordt er vaak vanuit gegaan dat het ontwikkelen en implementeren van AI-toepassingen samen met gebruikers, ook wel co-design genoemd, automatisch tot sociaal wenselijke innovaties leidt. Maar de primaire focus ligt bij co-design vaak op de kansen van innovatie, volgens Lukkien. “En het is net zo belangrijk om na te denken over de mogelijke neveneffecten en hoe je die kunt vermijden. We pleiten dan ook voor meer gebalanceerde en samenhangende aandacht voor kansen en risico’s van AI tijdens het innovatieproces.”
Lukkien ziet de toenemende roep vanuit beleidsmakers voor het opschalen van digitale en AI-gedreven innovaties. Maar hij pleit ervoor om opschaling niet simpelweg te beschouwen als meer van hetzelfde op verschillende plekken implementeren. “Verantwoord opschalen betekent dat je leert van eerdere ervaringen en dat je goed kijkt naar de specifieke context en welk maatwerk er nodig is. Dus goed kijken naar de mensen, de routines, werkprocessen en cultuur in een bepaalde organisatie bijvoorbeeld. En ruimte behouden voor flexibiliteit om tegemoet te komen aan de waarden en behoeften van alle betrokkenen.”
Lees het hele artikel in editie 5 van ICT&health, die op 24 oktober verschijnt.