Dissertação
Deep learning when data is scarce EVALUATED
A escassez de dados tem sido recentemente um desafio para modelos de aprendizagem profunda que dependem predominantemente de conjuntos de dados extensos para alcançar resultados de ponta, por exemplo, nas áreas de visão computacional e língua natural. Isto não só é computacionalmente exigente, mas também ineficiente em comparação com a aprendizagem humana. Em áreas como imagiologia médica, recolher extensos conjuntos de dados rotulados é também inviável, devido ao demorado e caro processo de anotação de dados. A aprendizagem de poucos exemplos aborda este mesmo desafio e permite que os modelos classifiquem dados não vistos com amostras de referência limitadas. Este paradigma deriva da meta-aprendizagem, onde a ideia é "aprender a aprender", permitindo que os modelos extrapolem a partir de poucos exemplos. Esta tese apresenta uma abordagem que integra a regularização Discrepância Máxima de Média com a classificação de poucos exemplos de imagens de histologia. Visa melhorar a generalização do modelo a partir de exemplos limitados, aprendendo efetivamente características invariantes em vez de características específicas de domínio ou conjunto de dados. Comparamos o desempenho entre diferentes conjuntos de dados e integramos o termo de regularização durante o pré-treino no conjunto de dados BreakHis. Por exemplo, a aplicação da regularização MMD para alinhar as distribuições de BreakHis e NCT melhora a precisão do teste de 10 exemplos no CRC-TP de 79,4%, obtida sem regularização, para 83,0%. Este resultado torna-se significativamente mais próximo daquele obtido quando o modelo é pré-treinado, sem regularização, num conjunto de dados 35 vezes maior.
novembro 24, 2023, 12:0
Publicação
Obra sujeita a Direitos de Autor
Orientação
ORIENTADOR
Arlindo Manuel Limede de Oliveira
Departamento de Engenharia Informática (DEI)
Professor Catedrático