Dissertação

{en_GB=Predictive Medicine using Interpretable Recurrent Neural Networks} {} EVALUATED

{pt=A aprendizagem profunda tem revolucionado vários aspectos das nossas vidas, graças aos seus resultados de estado-de-arte. No entanto, a complexidade dos seus modelos e a dificuldade de interpretação associada têm impedido que seja adotado nos cuidados de saúde em larga escala. Isto representa uma oportunidade perdida, especialmente tendo em conta os volumes crescentes de dados Electronic Health Records (EHR), com os hospitais e clínicas a recolherem cada vez mais informação em bases de dados digitais. Embora existam alguns estudos onde aplicam-se redes neuronais artificiais a dados EHR, a componente de interpretabilidade tende a ser abordada levemente ou até ignorada. Aqui demonstramos a capacidade superior de modelos baseados em redes neuronais recorrentes, que ultrapassam várias referências com uma média de 0.94 AUC no conjunto de teste, num contexto de previsão de ventilação não-invasiva de pacientes com Esclerose Lateral Amiotrófica (ALS), apresentando também uma solução de explicabilidade compreensiva. De forma a interpretar estes algoritmos recorrentes complexos, a biblioteca popular SHAP foi adaptada, sendo também definido uma nova pontuação de importância de instâncias, que destacam o efeito de características e de amostras temporais no resultado, respectivamente. Estes conceitos foram depois unidos numa interface, que serve de prova de conceito em termos de uma ferramenta de análise detalhada, e aumentada por IA, destinada a staff médico., en=Deep learning has been revolutionizing multiple aspects of our daily lives, thanks to its state-of-the-art results. However, the complexity of its models and its associated difficulty to interpret its results has prevented it from being widely adopted in healthcare systems. This represents a missed opportunity, specially considering the growing volumes of Electronic Health Record (EHR) data, as hospitals and clinics increasingly collect information in digital databases. While there are studies addressing artificial neural networks applied to this type of data, the interpretability component tends to be approached lightly or even disregarded. Here we demonstrate the superior capability of recurrent neural network based models, outperforming multiple baselines with an average of 0.94 test AUC, when predicting the use of non-invasive ventilation by Amyotrophic Lateral Sclerosis (ALS) patients, while also presenting a comprehensive explainability solution. In order to interpret these complex, recurrent algorithms, the robust SHAP package was adapted, as well as a new instance importance score was defined, to highlight the effect of feature values and time series samples in the output, respectively. These concepts were then combined in a dashboard, which serves as a proof of concept in terms of an AI-enhanced detailed analysis tool for medical staff.}
{pt=Aprendizagem profunda, intepretabilidade, redes neuronais recorrentes, registos de saúde electrónicos, progressão de doença, visualização de dados, en=Deep learning, interpretability, recurrent neural network, electronic health records, disease progression, data visualization}

Outubro 22, 2020, 11:0

Publicação

Obra sujeita a Direitos de Autor

Orientação

ORIENTADOR

Susana de Almeida Mendes Vinga Martins

Departamento de Bioengenharia (DBE)

Professor Associado

ORIENTADOR

Alexandra Sofia Martins de Carvalho

Departamento de Engenharia Electrotécnica e de Computadores (DEEC)

Professor Auxiliar