Publicação:
IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E

Carregando...
Imagem de Miniatura

Data

2024-11-14

Orientador

Neves, Leandro Alves

Coorientador

Pós-graduação

Curso de graduação

São José do Rio Preto - IBILCE - Ciência da Computação

Título da Revista

ISSN da Revista

Título de Volume

Editor

Universidade Estadual Paulista (Unesp)

Tipo

Trabalho de conclusão de curso

Direito de acesso

Acesso abertoAcesso Aberto

Resumo

Resumo (português)

As redes neurais convolucionais (CNNs) têm se mostrado extremamente eficazes no processamento de imagens nos últimos anos, obtendo excelentes resultados em tarefas de classificação e de segmentação. Este trabalho foi desenvolvido visando explorar a aplicação de CNN integradas ao XAI (Inteligência Artificial Explicável) no processamento de imagens histológicas, sendo este de importância significativa em diversas áreas como a patologia e no diagnóstico médico. Devido à alta complexidade e dimensionalidade das imagens, pode ocorrer uma dificuldade de interpretação e de confiabilidade dos resultados. Para mitigar essas limitações, foram integradas técnicas de interpretabilidade, como regiões explicáveis e mapas de ativação, que identificam as áreas mais relevantes das imagens para as decisões do modelo, e a abordagem de reforço de treinamento, que ajusta iterativamente os pesos da CNN. Embora a integração do XAI não tenha mostrado uma melhora significativa no desempenho quantitativo, como acurácia (98,18%) e loss (0,052), ela proporcionou uma maior compreensão das decisões do modelo ao identificar as regiões das imagens mais relevantes para as classificações. A abordagem de reforço de treinamento também foi explorada, buscando ajustar os pesos da CNN. Esses achados reforçam a importância de técnicas explicáveis para aumentar a confiança no uso de CNNs em áreas críticas como a medicina, onde a interpretabilidade pode ser tão valiosa quanto o desempenho numérico.

Resumo (inglês)

Convolutional Neural Networks (CNNs) have proven to be highly effective in image processing tasks in recent years, achieving remarkable results in classification and segmentation. This work explores the application of CNNs integrated with Explaina ble Artificial Intelligence (XAI) in processing histological images, a field of significant importance in areas such as pathology and medical diagnosis. The high comple xity and dimensionality of these images often pose challenges in interpretation and reliability of results. To address these limitations, interpretability techniques were in tegrated, including explainable regions and activation maps, which identify the most relevant areas of the images for the model’s decisions. Additionally, a training rein forcement approach was applied to iteratively adjust the CNN weights. While the in tegration of XAI did not significantly improve quantitative performance metrics, such as accuracy (98.18%) and loss (0.052), it provided greater insight into the model’s decision-making process by highlighting key regions of the images for classification. The training reinforcement strategy further aimed to refine the CNN’s performance. These findings underscore the importance of explainability techniques to enhance trust in CNN applications in critical fields such as medicine, where interpretability can be as valuable as numerical performance.

Descrição

Idioma

Português

Como citar

SUGAWARA, Igor Kauê Gouveia. IA explicável como reforço de treinamento em CNN: uma investigação no contexto de imagens H&E. 2024. 47 f. Trabalho de Conclusão de Curso (Bacharelado em Ciência da Computação) – Universidade Estadual Paulista (Unesp), Instituto de Biociências Letras e Ciências Exatas, São José do Rio Preto, São José do Rio Preto, 2024.

Itens relacionados

Financiadores

Unidades

Departamentos

Cursos de graduação

Programas de pós-graduação