Kunstmatige intelligentie (AI) kan helpen om complexe medische informatie eenvoudiger en begrijpelijker te maken. Dat blijkt uit onderzoek van het Maastricht UMC+, gepubliceerd in Human Reproduction. De studie toont dat AI-inzet niet ten koste hoeft te gaan van de nauwkeurigheid van de informatie.
De betrokken wetenschappers ontwikkelden een online AI-tool waarmee zorgverleners zelf teksten kunnen versimpelen en controleren op begrijpelijkheid. Zij menen dat dit een belangrijke bijdrage leveren aan het verkleinen van gezondheidsverschillen. “Het begrijpelijker maken van informatie is essentieel, zodat iedereen – ongeacht opleidingsniveau – goede keuzes kan maken over hun gezondheid,” stelt hoofdonderzoeker Masoud Zamani Esteki.
Het onderzoek zelf richtte zich op genetische informatie rondom zwangerschap. Genetisch onderzoek kan ouders inzicht geven in het risico op erfelijke aandoeningen bij hun kind, of zelfs genetische aandoeningen bij hun kind voorkomen. Informatie hierover is echter vaak moeilijk te begrijpen. Het gevolg kan zijn dat sommige mensen tot onnodige testen overgaan, terwijl anderen juist afzien van nuttig onderzoek. Zo krijgen jonge vrouwen die een IVF-behandeling ondergaan soms een extra test op chromosoomaantallen bij embryo’s, terwijl die niet altijd zinvol is.
Herschrijven complexe testen
De onderzoekers hebben vier AI-modellen – GPT-3.5, GPT-4, Copilot en Gemini – getest op hun vermogen om complexe teksten over erfelijkheid en zwangerschap te herschrijven. Enkele voorbeelden zijn informatie over NIPT (niet-invasieve prenatale test), vlokkentest, vruchtwaterpunctie en embryoselectie.
In totaal werden 30 voorlichtingsfolders verzameld en vereenvoudigd met behulp van de AI-modellen. De leesbaarheid van de teksten verbeterde in alle gevallen aanzienlijk, tot het leesniveau van groep 8 – het niveau dat medische verenigingen aanbevelen. GPT-4 bleek het beste in staat om de teksten begrijpelijker te maken zonder belangrijke details te verliezen.
Zamani Esteki: “Ons onderzoek laat zien dat AI kan ondersteunen bij het toegankelijker maken van complexe medische informatie. Wel zagen we dat sommige modellen essentiële details weglieten, wat gevaarlijk kan zijn voor het begrip en de besluitvorming. GPT-4 vond een goede balans.”
Online tool voor zorgverleners
De onderzoekers hebben ook een online hulpmiddel ontwikkeld dat zorgverleners kan helpen om teksten eenvoudiger en beter leesbaar te maken: de Health Literacy Evaluator. Deze tool werkt met GPT-4 en helpt zorgverleners om teksten automatisch te versimpelen. Daarna meet de tool hoe begrijpelijk de tekst is, zodat zorgverleners direct feedback krijgen op de leesbaarheid. Zo kunnen zij patiëntinformatie beter afstemmen op mensen met lage gezondheidsvaardigheden.
Het hulpmiddel is ontwikkeld met gebruik van Engelstalige teksten. Inmiddels is een Nederlandstalige versie getest door vier experts, die aangeven dat de tool goed werkt. Daarnaast is het hulpmiddel breder inzetbaar dan voor het vereenvoudigen van voorlichting rondom zwangerschap. De ontwikkelaars willen zo bijdragen aan het begrijpelijker maken van informatie én aan het vergroten van het vertrouwen van patiënten. Zij noemen dit net zo belangrijk als toegang tot zorg.
“AI kan bijdragen aan gezondheidsrechtvaardigheid door patiënten beter te informeren en hen in staat te stellen weloverwogen keuzes te maken over genetische tests,” aldus Zamani Esteki. Dit kan vooral bij kwetsbare groepen met lage gezondheidsvaardigheden zorgen voor betere zorguitkomsten en minder ongelijkheid.
Vervolgstudies
De onderzoekers willen in vervolgstudies achterhalen hoe patiënten de vereenvoudigde teksten ervaren, en wat dit betekent voor hun kennis en keuzes. Daarnaast werkt de groep van Zamani Esteki aan een aanpak om te onderzoeken of meer kennis het mentale welzijn van patiënten tijdens hun behandeling verbetert.
Het artikel ‘Artificial intelligence-simplified information to advance reproductive genetic literacy and health equity’ van Marjan Naghdi en collega's is gepubliceerd in Human Reproduction journal. doi:10.1093/humrep/deaf135