Dissertação

Predictive Medicine using Interpretable Recurrent Neural Networks EVALUATED

A aprendizagem profunda tem revolucionado vários aspectos das nossas vidas, graças aos seus resultados de estado-de-arte. No entanto, a complexidade dos seus modelos e a dificuldade de interpretação associada têm impedido que seja adotado nos cuidados de saúde em larga escala. Isto representa uma oportunidade perdida, especialmente tendo em conta os volumes crescentes de dados Electronic Health Records (EHR), com os hospitais e clínicas a recolherem cada vez mais informação em bases de dados digitais. Embora existam alguns estudos onde aplicam-se redes neuronais artificiais a dados EHR, a componente de interpretabilidade tende a ser abordada levemente ou até ignorada. Aqui demonstramos a capacidade superior de modelos baseados em redes neuronais recorrentes, que ultrapassam várias referências com uma média de 0.94 AUC no conjunto de teste, num contexto de previsão de ventilação não-invasiva de pacientes com Esclerose Lateral Amiotrófica (ALS), apresentando também uma solução de explicabilidade compreensiva. De forma a interpretar estes algoritmos recorrentes complexos, a biblioteca popular SHAP foi adaptada, sendo também definido uma nova pontuação de importância de instâncias, que destacam o efeito de características e de amostras temporais no resultado, respectivamente. Estes conceitos foram depois unidos numa interface, que serve de prova de conceito em termos de uma ferramenta de análise detalhada, e aumentada por IA, destinada a staff médico.
Aprendizagem profunda, intepretabilidade, redes neuronais recorrentes, registos de saúde electrónicos, progressão de doença, visualização de dados

outubro 22, 2020, 11:0

Publicação

Obra sujeita a Direitos de Autor

Orientação

ORIENTADOR

Susana de Almeida Mendes Vinga Martins

Departamento de Bioengenharia (DBE)

Professor Associado

ORIENTADOR

Alexandra Sofia Martins de Carvalho

Departamento de Engenharia Electrotécnica e de Computadores (DEEC)

Professor Auxiliar