Publicação: IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E
Carregando...
Data
2024-11-14
Autores
Orientador
Neves, Leandro Alves 

Coorientador
Pós-graduação
Curso de graduação
São José do Rio Preto - IBILCE - Ciência da Computação
Título da Revista
ISSN da Revista
Título de Volume
Editor
Universidade Estadual Paulista (Unesp)
Tipo
Trabalho de conclusão de curso
Direito de acesso
Acesso aberto

Resumo
Resumo (português)
As redes neurais convolucionais (CNNs) têm se mostrado extremamente eficazes no processamento de imagens nos últimos anos, obtendo excelentes resultados em tarefas de classificação e de segmentação. Este trabalho foi desenvolvido visando explorar a aplicação de CNN integradas ao XAI (Inteligência Artificial Explicável) no processamento de imagens histológicas, sendo este de importância significativa em diversas áreas como a patologia e no diagnóstico médico. Devido à alta complexidade e dimensionalidade das imagens, pode ocorrer uma dificuldade de interpretação e de confiabilidade dos resultados. Para mitigar essas limitações, foram integradas técnicas de interpretabilidade, como regiões explicáveis e mapas de ativação, que identificam as áreas mais relevantes das imagens para as decisões do modelo, e a abordagem de reforço de treinamento, que ajusta iterativamente os pesos da CNN. Embora a integração do XAI não tenha mostrado uma melhora significativa no desempenho quantitativo, como acurácia (98,18%) e loss (0,052), ela proporcionou uma maior compreensão das decisões do modelo ao identificar as regiões das imagens mais relevantes para as classificações. A abordagem de reforço de treinamento também foi explorada, buscando ajustar os pesos da CNN. Esses achados reforçam a importância de técnicas explicáveis para aumentar a confiança no uso de CNNs em áreas críticas como a medicina, onde a interpretabilidade pode ser tão valiosa quanto o desempenho numérico.
Resumo (inglês)
Convolutional Neural Networks (CNNs) have proven to be highly effective in image processing tasks in recent years, achieving remarkable results in classification and segmentation. This work explores the application of CNNs integrated with Explaina ble Artificial Intelligence (XAI) in processing histological images, a field of significant importance in areas such as pathology and medical diagnosis. The high comple xity and dimensionality of these images often pose challenges in interpretation and reliability of results. To address these limitations, interpretability techniques were in tegrated, including explainable regions and activation maps, which identify the most relevant areas of the images for the model’s decisions. Additionally, a training rein forcement approach was applied to iteratively adjust the CNN weights. While the in tegration of XAI did not significantly improve quantitative performance metrics, such as accuracy (98.18%) and loss (0.052), it provided greater insight into the model’s decision-making process by highlighting key regions of the images for classification. The training reinforcement strategy further aimed to refine the CNN’s performance. These findings underscore the importance of explainability techniques to enhance trust in CNN applications in critical fields such as medicine, where interpretability can be as valuable as numerical performance.
Descrição
Palavras-chave
Redes neurais convolucionais, Inteligência artificial explicável, Reforço de treinamento, Reconhecimento de padrões, Mapas de ativação, Imagens histológicas, Convolutional neural networks, Explainable artificial intelligence, Training reinforcement, Pattern recognition, Activation mapping, Histological images
Idioma
Português
Como citar
SUGAWARA, Igor Kauê Gouveia. IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E. 2024. 47 f. Trabalho de Conclusão de Curso (Bacharelado em Ciência da Computação) – Universidade Estadual Paulista (Unesp), Instituto de Biociências Letras e Ciências Exatas, São José do Rio Preto, São José do Rio Preto, 2024.