Development of an explainable AI algorithm to classify brain Arteriovenous Malformations (AVM) using Arterial Spin Labelling sequences (ASL)
Visualitza/Obre
tfm-romagosa-perez-ju-lia.pdf (6,013Mb) (Accés restringit)
Estadístiques de LA Referencia / Recolecta
Inclou dades d'ús des de 2022
Cita com:
hdl:2117/385224
Realitzat a/ambHospital Sant Joan de Déu
Tipus de documentProjecte Final de Màster Oficial
Data2023-01-25
Condicions d'accésAccés restringit per decisió de l'autor
Tots els drets reservats. Aquesta obra està protegida pels drets de propietat intel·lectual i
industrial corresponents. Sense perjudici de les exempcions legals existents, queda prohibida la seva
reproducció, distribució, comunicació pública o transformació sense l'autorització del titular dels drets
Abstract
Les malformacions arteriovenoses cerebrals (MAV) representen la principal etiologia de l'hemorràgia intracranial pediàtrica. Diversos estudis assenyalen com a convenient l'ús de tècniques d'imatge no invasives per monitoritzar l'efecte del tractament de les MAV cerebrals, com ara la tècnica Arteria Spin- Labeling (ASL), ja que una correcta obliteració pot donar-se fins a dos anys després de el tractament, requerint un seguiment posterior. A més, l'avanç de la tecnologia ha contribuït a l'aplicació de la intel·ligència artificial (IA) en diferents àmbits, com és el cas de la imatge medica, oferint grans oportunitats de progrés i innovació per la seva capacitat per resoldre problemes cognitius que normalment requereixen intel·ligència humana. Els models poden ser entrenats i validats juntament amb professionals del sector de salut, de manera que aquests puguin ser integrats al seu procés de treball i servir com a ajuda. Un requisit indispensable perquè això passi és poder proporcionar una explicació a les decisions preses per una xarxa neuronal. Per això, les tècniques d'explicabilitat permeten als humans comprendre i confiar en la sortida generada per un algorisme. A partir d'una base de dades d'imatges d'ASL de pacients pediàtrics proporcionada per l'Hospital Sant Joan de Déu a Barcelona, aquest projecte es desenvolupa en col·laboració amb aquest hospital, amb l'objectiu de desenvolupar un model de Deep Learning (DL) explicable que permeti detectar la presència de MAV a ASL. En primer lloc, es defineixen diversos models i s'entrenen amb aquestes dades. Posteriorment, s'apliquen el mètode Gradient-weighted Class Activation Mapping (GradCAM) com a tècnica d'explicabilitat, i s'escull el millor model tenint en compte els resultats de diferents mètriques i les explicacions que generen sobre les seves decisions. Finalment, s'aconsegueix un model entrenat que és capaç de detectar la presència d'AVM amb alta precisió a més de proporcionar explicacions transparents i lògiques validades per neuroradiòlegs. Las malformaciones arteriovenosas cerebrales (MAV) representan la principal etiología de la hemorragia intracraneal pediátrica. Diversos estudios señalan como conveniente el uso de técnicas de imagen no invasivas para monitorizar el efecto del tratamiento de las MAV cerebrales, como La secuencia pseudocontinuous arterial spin-labeling (ASL), ya que una correcta obliteración de estas puede darse hasta dos años después de el tratamiento, requiriendo de un seguimiento posterior. Además, el avance de la tecnología ha contribuido a la aplicación de la inteligencia artificial (IA) en múltiples ámbitos, como es el caso de la imagen medica, ofreciendo grandes oportunidades de progreso e innovación por su capacidad para resolver problemas cognitivos que normalmente requieren inteligencia humana. Los modelos pueden ser entrenados y validados junto a profesionales del sector de salud, de forma que estos puedan ser integrados en su proceso de trabajo y servir como ayuda. Un requisito indispensable para que esto suceda es poder proporcionar una explicación a las decisiones tomaras por una red neuronal. Por ello, las técnicas de explicabilidad permiten a los usuarios humanos comprender y confiar en la salida generada por un algoritmo. A partir de una base de datos de imágenes de ASL de pacientes pediátricos proporcionada por el Hospital Sant Joan de Déu en Barcelona, este proyecto se desarrolla en colaboración con dicho hospital, con el objetivo de desarrollar de un modelo de Deep Learning explicable que permita detectar la presencia de MAV en ASL. En primer lugar, se definen varios modelos y se entrenan con estos datos. Posteriormente, se aplican el método Gradient-weighted Class Activation Mapping (GradCAM) como técnica de explicabilidad, y se escoge el mejor modelo teniendo en cuenta los resultados de diferentes métricas, así como las explicaciones que generan acerca de sus decisiones. Finalmente, se logra un modelo entrenado que es capaz de detectar la presencia de AVM con alta precisión, además de proporcionar explicaciones transparentes y lógicas validadas por neurorradiólogos Cerebral arteriovenous malformations (AVMs) represent the main aetiology of paediatric intracranial haemorrhage. Several studies point to the use of non-invasive imaging techniques to monitor the effect of treatment of cerebral AVMs, such as the pseudocontinuous arterial spin-labeling (ASL) sequence, since correct AVM obliteration can occur up to two years after treatment, requiring subsequent follow- up. In addition, advances in technology have contributed to the application of artificial intelligence (AI) in multiple fields, such as medical imaging, offering great opportunities for progress and innovation due to its ability to solve cognitive problems that normally require human intelligence. The models can be trained and validated together with healthcare professionals, so that they can be integrated into their work process and serve as an aid. A prerequisite for this to happen is to be able to provide an explanation for the decisions made by a neural network. Therefore, explainability techniques allow human users to understand and trust the output generated by an algorithm. Using a database of ASL images of paediatric patients provided by the Hospital Sant Joan de Déu in Barcelona, this project is developed in collaboration with this hospital, with the aim of developing an explainable Deep Learning (DL) model to detect the presence of AVMs in ASL. First, several models are defined and trained with these data. Subsequently, the GradCAM method (Gradient-weighted Class Activation Mapping) is applied as an explainability technique, and the best model is chosen taking into account the results of different metrics, as well as the explanations they generate about their decisions. Finally, a trained model is achieved that is able to detect the presence of AVM with a high accuracy, in addition to providing transparent and logical explanations validated by neuroradiologists
MatèriesBrain -- Diseases -- Diagnosis -- Mathematical models, Deep learning (Machine learning), Artificial intelligence -- Medical applications -- Evaluation, Pattern recognition systems -- Software -- Evaluation, Cervell -- Malalties -- Diagnòstic -- Models matemàtics, Aprenentatge profund, Intel·ligència artificial -- Aplicacions a la medicina -- Avaluació, Reconeixement de formes (Informàtica) -- Programari -- Avaluació
TitulacióMÀSTER UNIVERSITARI EN NEUROENGINYERIA I REHABILITACIÓ (Pla 2020)
Fitxers | Descripció | Mida | Format | Visualitza |
---|---|---|---|---|
tfm-romagosa-perez-ju-lia.pdf | 6,013Mb | Accés restringit |