AI maakt pandemische surveillance mogelijk, identificeert risicogroepen en ondersteunt communicatie op maat bij het ontwerpen van preventiecampagnes voor ziektes. In een interview voor ICT&health Global bespreekt dr. Stefan Buttigieg, specialist in gezondheidszorg bij het ministerie van Volksgezondheid in Malta, of ChatGPT een goede of slechte gezondheidsadviseur is, hoe AI kan helpen bij het bestrijden van desinformatie en waarom samenwerking tussen gezondheidsautoriteiten en grote technologiebedrijven essentieel is voor het verbeteren van de volksgezondheid.
Na de COVID-19-pandemie is er veel discussie geweest over de vraag of AI kan helpen bij de voorbereiding op pandemieën. Zijn we al zo ver?
Op mondiaal niveau zijn we nog bezig met het oplossen van onze gegevensproblemen en hebben we nog niet het implementatiemomentum bereikt dat nodig is om duidelijke, zichtbare resultaten te zien. We zien echter zowel bindende als niet-bindende beleidsmaatregelen, evenals een strategisch momentum dat onze verwachtingen overtreft. Nu moeten we een versnelling hoger schakelen en het werk dat in al deze strategische planning is uiteengezet, toepassen.
Waar kan AI, naast de respons op pandemieën, nog meer worden toegepast in de volksgezondheid?
Hier wil ik u graag verwijzen naar ons recente werk in The Lancet, waar we hebben uiteengezet hoe AI kan worden gebruikt voor activiteiten op het gebied van de volksgezondheid. Er zijn meerdere toepassingen voor AI in de volksgezondheid, en ik denk dat we nog maar net begonnen zijn. AI-technieken worden op grote schaal gebruikt om potentiële uitbraken te identificeren en tijdig waarschuwingen te geven, trends in risicofactoren voor niet-overdraagbare ziekten te monitoren door demografische, gedrags- en omgevingsgegevens te analyseren, en gedragsepidemiologie uit te voeren, waarbij gegevens van mobiele apps en sociale media kunnen worden geanalyseerd om gezondheidsgedrag zoals voeding, lichaamsbeweging en mobiliteit bij te houden. Nog interessanter is dat er steeds meer toepassingen van AI zijn in de communicatie over volksgezondheid, die helpen om boodschappen af te stemmen op specifieke bevolkingsgroepen.
Laten we natuurlijk niet iets vergeten dat op grote schaal moeilijk te meten is. Toch ontdekten we tijdens de Europese conferentie over volksgezondheid in Lissabon in 2024 dat “vertalen”, ‘schrijven’ en “coderen” de meest voorkomende redenen waren om generatieve AI te gebruiken. Onlangs had ik de gelegenheid om dit werk voort te zetten tijdens een conferentie in Australië, waar vergelijkbare inzichten naar voren kwamen, evenals enkele nieuwigheden die we binnenkort hopen te kunnen delen.
Deze toepassingen klinken veelbelovend, maar hoe realistisch zijn ze, gezien het feit dat de digitalisering in de gezondheidszorg vaak achterloopt op andere economische sectoren?
Ik denk dat er hier uitstekende kansen liggen, maar natuurlijk hebben we in meerdere landen nog niet de schaal gezien die we zouden willen. We moeten echt werken aan de perceptie, wat betekent dat we de AI-kennis bij volksgezondheidsorganisaties moeten verdubbelen en deze oplossingen moeten presenteren op conferenties, in podcasts, webinars en meer.
Ik ben blij dat ik al gespecialiseerde conferenties zie, zoals de AI in Public Health Research Conference bij het Robert Koch Instituut in Duitsland, die echt het bewustzijn en begrip van deze toepassingen vergroten. We zien ook dat landen – vooral in de Europese regio – hun regelgevingskaders nog steeds aanpassen aan de hogere regelgeving van de Europese Unie, zoals de European Health Data Space (EHDS) en de AI Act, die een integrale rol spelen bij de veilige en ethische implementatie van AI-oplossingen op grote schaal.
Niettemin draait de wereld om geld, en we moeten eerst werken aan het cureren van onze gegevens en het opbouwen van een gegevenscultuur binnen gezondheidsorganisaties om echt de enorme impact te zien die deze toepassingen kunnen hebben. Ik heb het goede gevoel dat de “Apply AI Strategy” ons veel dichter bij het omslagpunt zal brengen.
Mensen over de hele wereld maken steeds vaker gebruik van ChatGPT en soortgelijke generatieve AI-tools voor advies over gezondheid en geestelijke gezondheid. Is deze ontwikkeling gunstig of schadelijk?
Ik denk dat het zowel gunstig als schadelijk kan zijn. Ik raad grote technologiebedrijven ten zeerste aan om ervoor te zorgen dat de principes die zij hanteren – met name die welke gezondheidsgerelateerd advies bieden – nauw aansluiten bij die van de WHO. Deze basisprincipes mogen niet worden genegeerd: onder meer het beschermen van de menselijke autonomie, het waarborgen van transparantie, verklaarbaarheid en begrijpelijkheid, en het bevorderen van inclusiviteit en gelijkheid.
AI heeft ook een donkere kant, omdat het kan bijdragen aan de verspreiding van gezondheidsgerelateerde desinformatie op sociale media, bijvoorbeeld over vaccinatie. Kan AI zelf worden gebruikt om medische desinformatie te bestrijden?
Elke technologie heeft een donkere en een ‘heilige’ kant, met veel nuances daartussenin. Ja, AI speelt een cruciale rol in de bestrijding van medische desinformatie. Een van de grootste belemmeringen die ik tot nu toe zie, is het zeer lage aantal mensen dat specifiek werkzaam is in marketing en communicatie binnen volksgezondheidsorganisaties. Vaak werken ze wereldwijd met een zeer beperkt budget en kunnen ze maar weinig onderzoeken. Kijk maar naar het aantal ontslagen bij volksgezondheidsorganisaties over de hele wereld. Toch kan er voor individuen en teams binnen deze organisaties een verborgen kans liggen om AI-tools te gebruiken om hun werk op te schalen.
Techbedrijven hebben steeds meer invloed op de gezondheid van burgers. Ze beheersen de algoritmen achter sociale mediaplatforms die verkeerde informatie versterken en zijn vaak terughoudend om samen te werken met gezondheidsautoriteiten. Hoe kan deze uitdaging worden aangepakt?
Regulering en afstemming tussen belanghebbenden zijn essentieel. Regulering staat centraal in onze missie om ervoor te zorgen dat de belangen van individuen en bevolkingsgroepen op een rechtvaardige manier worden geprioriteerd, zodat niemand achterblijft. Op dit gebied hebben we als volksgezondheidsorganisaties nog veel werk te doen. Ten tweede, en dit is waar we echt harder aan moeten werken, moeten we nauw samenwerken met technologiebedrijven door middel van regelmatige bijeenkomsten en fora om ervoor te zorgen dat zij de nodige capaciteit opbouwen om gezondheid centraal te stellen.
Ik zou bijvoorbeeld graag zien dat YouTube Health-content, met name van geverifieerde gezondheidsprofessionals en gezondheidsautoriteiten, naar veel meer landen wordt uitgebreid en dat Meta Verified wordt ingeschakeld voor betrouwbare gezondheidsprofessionals en autoriteiten. Het opbouwen van vertrouwensnetwerken en het communiceren van relevante ontwikkelingen op het gebied van regelgeving aan deze technologiebedrijven zal een echt verschil maken in de toekomst.
We evolueren naar grote actiemodellen en binnenkort zullen AI-agenten op onze smartphones ons misschien adviseren over wat we moeten eten of of we ons moeten laten vaccineren. Zullen volksgezondheidsinstanties in deze nieuwe realiteit nog steeds een betekenisvolle impact hebben op de samenleving?
Natuurlijk! Maar er is een voorbehoud. We hebben volksgezondheidsinstanties nodig om het voortouw te nemen, niet noodzakelijk door zelf de agenten te ontwikkelen, maar door hoogwaardige, gecureerde gegevensbronnen aan te bieden die deze AI-agenten van betrouwbare inhoud voorzien. Idealiter zouden volksgezondheidsinstanties de best mogelijke modelcontextprotocolservers moeten bieden waarmee agents verbinding kunnen maken. Meer dan ooit moeten volksgezondheidsinstanties zich dubbel inzetten voor gegevens en de relevante gegevensculturen en -strategieën.
Het doel van volksgezondheidsinstanties zou niet populariteit moeten zijn – dat is het nooit echt geweest – maar de focus zou moeten liggen op het leveren van hoogwaardige inhoud die op een begrijpelijke manier aan de juiste doelgroepen wordt gecommuniceerd.
Ik ken geen enkele nationale gezondheids-chatbot die populairder is dan ChatGPT, Perplexity of Co-Pilot.
Ik heb er geen probleem mee dat een nationale gezondheids-chatbot minder gangbaar is dan ChatGPT, Perplexity of Co-Pilot. Waar ik wel een probleem mee heb, is dat de gegevensbronnen van volksgezondheidsinstanties niet worden gebruikt in de antwoorden die door deze tools worden gegenereerd. Daar moeten we ons extra op richten en harder aan werken.
Hoe stelt u zich een door AI aangestuurd volksgezondheidssysteem voor en welke stappen zijn nodig om dit te realiseren?
Ten eerste: gegevens. We moeten onze inspanningen opvoeren en ervoor zorgen dat alle relevante belanghebbenden op één lijn zitten. Ten tweede: interoperabiliteit. We moeten interoperabiliteit op alle niveaus waarborgen (volgens het LOST-model), maar nog belangrijker is menselijke interoperabiliteit, waarbij we onze agenda's opzij zetten en ons concentreren op volksgezondheidsprincipes en de zaken die er echt toe doen.
Welke recente toepassingen van AI in de gezondheidszorg hebben de meeste indruk op u gemaakt of u het meest geïnspireerd?
Ik ben vooral onder de indruk van de groei van agentische AI en van de diepgaande integratie van bestaande platforms met ChatGPT, Co-Pilot en andere generatieve AI-tools. Nu horen we zelfs over hiërarchische redeneringsmodellen en nog veel meer.
Zal AI volgens u uiteindelijk de volksgezondheid verbeteren of juist bedreigen?
Hier moet ik terugkomen op de woorden van de inspirerende gezondheids-AI-visionair, dr. Ricardo Baptista Leite, die ik voor het eerst hoorde tijdens de open sessies van het European Health Forum Gastein. Het moment waarop we ons nu bevinden met kunstmatige intelligentie lijkt sterk op het moment waarop de lift voor het eerst werd geïntroduceerd in de moderne samenleving. Toen de veiligheid ervan aan het grote publiek was aangetoond en het vertrouwen centraal stond, vond de revolutie plaats en vandaag de dag zien we overal moderne en verbluffende technische hoogstandjes.
Ik zie een vergelijkbaar pad voor AI in de volksgezondheid. We moeten extra inzetten op de veiligheid van AI en ervoor zorgen dat deze, in overeenstemming met de principes van de volksgezondheid, goed wordt geëvalueerd. Daarna zullen we kunstmatige intelligentie-toepassingen en -technieken in meerdere situaties en use cases inzetten.