Bepaalt Explainable AI de toekomst van radiotherapie? Maastro investeert in onderzoek!
Je kunt tegenwoordig geen krant openslaan of een nieuwssite bezoeken zonder iets lezen over Artificial Intelligence (AI). Ook bij bestralingskliniek Maastro Maastricht is AI een belangrijk onderwerp. Met steeds meer patiënten, complexere gevallen, een groeiende hoeveelheid imaging data en een krappe arbeidsmarkt, staat de zorg onder druk. De vraag luidt dan ook: kan AI helpen om deze uitdagingen aan te pakken? En zo ja, hoe?
Maastro, met vestigingen in Maastricht en Venlo, is het radiotherapeutisch instituut voor de behandeling van kanker in Zuidoost-Nederland. Als internationaal erkend instituut combineert Maastro hoogwaardige patiëntenzorg met grensverleggend wetenschappelijk onderzoek en opleiding en onderwijs. Maastro is één van de drie protonentherapiecentra in Nederland en streeft ernaar uit te groeien naar hét Europees Expertisecentrum voor brachytherapie (inwendige bestraling).
Binnen Maastro zijn vijf research divisies, o.a. Clinical Data Science, operationeel, die ondersteund worden door verschillende stafafdelingen. Een daarvan is Innovation Implementation Research waar PhD-studente Luca Heising het onderwerp ‘Explainable AI (XAI) in de klinische setting’ bestudeert.
Luca Heising presenteert "XAI bij Maastro radiotherapie" tijdens de AMCIS in de VS
Explainable AI
Explainable AI (XAI) is een verzameling processen en methoden die ervoor zorgen dat menselijke gebruikers de resultaten en output van ‘machine learning algoritmes’ kunnen begrijpen, controleren én vertrouwen. XAI functioneert als een brug tussen de gebruiker en het AI-systeem. Hierbij draait het om vragen als “waarom geeft het AI-model deze uitkomst?” of “wat gebeurt er als we een bepaalde variabele aanpassen?” Het doel van XAI is om inzicht te geven in de werking van AI-modellen, zodat gebruikers kunnen begrijpen hoe beslissingen worden genomen.
Hoewel XAI in andere sectoren al wordt toegepast, staat het gebruik ervan in een klinische setting nog in de kinderschoenen. Dit maakt het onderzoek van Luca Heising bijzonder relevant, omdat zij onderzoekt hoe XAI kan worden toegepast binnen de radiotherapie.
Vertrouwen in AI
De centrale vraag in het onderzoek van Luca is: waarom geeft het AI-model de uitkomst die het geeft? Vertrouwen is een cruciaal aspect bij de acceptatie van AI-systemen in de gezondheidszorg. Hoe kunnen we ervoor zorgen dat de uitkomsten van AI betrouwbaar zijn, en hoe kunnen we deze processen en procedures in de klinische praktijk bewaken?
Een belangrijk onderdeel van haar onderzoek is het ontwikkelen van een ‘toolbox’ met verschillende XAI-modellen die gebruikt kunnen worden in diverse situaties. Deze modellen kunnen niet alleen fouten tijdens de behandeling identificeren, maar ook aangeven welke informatie daarbij relevant is. Dit helpt zorgverleners om 'informed decisions' te maken, wat het vertrouwen in AI-systemen zou moeten vergroten.
De eerste resultaten
Om te begrijpen hoe het staat met het vertrouwen in AI binnen de radiotherapie, ontwikkelde Luca een vragenlijst. Hieruit bleek dat er wel degelijk vertrouwen is in AI, mits de technologie goed wordt getest. Toch blijven er vragen over de randvoorwaarden, zoals governance en monitoring. Waarom slaagt de implementatie van AI in sommige gevallen wel, en in andere gevallen niet?
Om hier meer inzicht in te krijgen, voert Luca nu aanvullende interviews uit met de verschillende bestralingsklinieken in Nederland.
Een andere uitdaging binnen XAI is de variabiliteit in inputdata. De gegevens die worden gebruikt om AI-modellen te trainen, komen vaak uit verschillende bronnen. Dit kan de verklaarbaarheid van de modellen bemoeilijken. Het gezegde "garbage in = garbage out" wijst op de impact die de kwaliteit van data heeft op de prestaties van AI-modellen. Daarom is de kwaliteit van de inputdata ook in XAI van groot belang. De oplossing voor deze uitdaging valt buiten de scope van het onderzoek.
XAI als communicatiemiddel
XAI fungeert als communicatiemiddel tussen verschillende gebruikersgroepen. Het verschil in verantwoordelijkheid, taken en achtergrondkennis van deze groepen betekent dat ieder zijn eigen vragen heeft over de AI-modellen. De uitdaging is om XAI zo breed mogelijk in te zetten, rekening houdend met de verschillende wensen van de verschillende gebruikersgroepen. Ook de patiënt speelt hierbij een belangrijke rol. Wanneer het AI- model de arts informeert moet de arts ook vragen van de patiënt onderbouwd kunnen beantwoorden. XAI kan hierbij helpen door de arts van de benodigde informatie te voorzien.
Praktische toepassingen Maastro
Bij Maastro wordt gewerkt met Dose Guided Radiotherapy (DGRT): het verifiëren van de geplande fractie met de daadwerkelijke fractie, op basis van het radiotherapieplan. Het zgn. EPID (elektronische röntgencamera) zorgt daarbij voor de nodige data. Het handmatig interpreteren van deze gegevens is echter complex en tijdrovend, zelfs voor fysici. Daarom wordt AI ingezet om te kijken of er patronen zijn in bepaalde hot-spots (overdosering) of cold-spots (onderdosering).
AI kan bijvoorbeeld detecteren of een tumor sneller krimpt dan verwacht. XAI probeert vervolgens aan te geven waar dit precies zit. Met deze informatie kan de fysicus, eventueel later ook de laborant, snel en gericht aan de slag gaan met het her-intekenen van de tumor en het her-plannen van het radiotherapieplan, zodat gezond weefsel geen onnodige dosis krijgt.
Een andere nieuwe ontwikkeling is het ontwikkelen van AI-voorspellingsmodellen die aangeven of een patiënt bepaalde bijwerkingen zou kunnen krijgen. Als een model bijvoorbeeld voorspelt dat een patiënt 70% kans heeft op longontsteking bij het huidige plan, willen we weten waarom dit zo is. Het doel van XAI is hier dan om te achterhalen of het mogelijk is dit percentage omlaag te brengen door anders te plannen. Zo kunnen we gerichter actie ondernemen aan de hand van de uitkomst van het AI-model.
Toekomst XAI
Het nog niet afgeronde onderzoek van Luca heeft nu al de aandacht getrokken. Zo is ze uitgenodigd om te spreken tijdens de prestigieuze Americas Conference on Information Systems (AMCIS). Ze hoopt eind 2025 haar onderzoek af te ronden.
Hoewel XAI nog in de kinderschoenen staat, biedt het enorme potentie voor de toekomst van AI in de gezondheidszorg. Er is nog veel te ontdekken en te verbeteren op het gebied van AI. Betrouwbaarheid en eenvoud staan hierbij voorop.
Luca Heising presenteert "XAI bij Maastro radiotherapie" tijdens de AMCIS in de VS