Integração de mecanismos de atenção em redes neurais convolucionais e híbridas no contexto de imagens histológicas
| dc.contributor.advisor | Neves, Leandro Alves [UNESP] | |
| dc.contributor.author | Miguel, Pedro Lucas [UNESP] | |
| dc.contributor.committeeMember | Zampirolli, Francisco de Assis | |
| dc.contributor.committeeMember | Zafalon, Geraldo Francisco Donega [UNESP] | |
| dc.contributor.committeeMember | Barbon Junior, Sylvio | |
| dc.contributor.committeeMember | Ribas, Lucas Correia [UNESP] | |
| dc.contributor.institution | Universidade Estadual Paulista (Unesp) | |
| dc.date.accessioned | 2026-02-20T16:36:15Z | |
| dc.date.issued | 2026-02-09 | |
| dc.description.abstract | Modelos de aprendizado profundo para classificação de imagens histológicas carecem de interpretabilidade. Este trabalho propõe um framework modular, combinando attention branches e regularização por entropia (CAM Fostering) para aprimorar a explicabilidade do método Grad-CAM. A metodologia foi validada em sete backbones (ResNet-50, DenseNet-201, EfficientNet-b0, ResNext-50, ConvNext, CoatNet-small e Uniformer), em cinco datasets de imagens histológicas, a partir do uso de métricas quantitativas, sendo elas: complexidade (COM), coerência (CO), queda de confiança (QC) e média DCC (ADCC). Os resultados confirmaram ganhos consistentes no ADCC em seis dos sete modelos, destacando-se o ResNet-50 (63,21%) e o ResNeXt-50 (62,12%). Além disso, observou-se um ganho expressivo na estabilidade das explicações, no ConvNext, por exemplo, a QC média caiu de 19,58% para 5,91%, e modelos híbridos, como o Uniformer, também apresentaram melhorias relevantes, com ADCC de 54,81%. Esses ganhos de interpretabilidade não resultaram em perdas significativas de acurácia, de modo que o desempenho de classificação foi preservado e, em alguns casos, inclusive aprimorado, como no CoatNet-small, que alcançou uma F1-Score de 95,14%. Nos demais modelos backbone, as variações máximas permaneceram inferiores a 2,2%. Este trabalho oferece, portanto, uma solução capaz de aumentar a transparência do diagnóstico assistido por modelos de aprendizado profundo ao destacar regiões relevantes sem comprometer a acurácia. | pt |
| dc.description.abstract | Deep learning models for histological image classification lack interpretability. This work proposes a modular framework, combining attention branches and entropy regularization (CAM Fostering), to enhance the explainability of the Grad-CAM method. The methodology was validated across seven backbones (ResNet-50, DenseNet-201, EfficientNet-b0, ResNeXt-50, ConvNeXt, CoatNet-small, and Uniformer) on five histological image datasets, using quantitative metrics, namely: Complexity (COM), Coherence (CO), Confidence Drop (CD), and Average DCC (ADCC). Results confirmed consistent gains in ADCC in six out of the seven models, with ResNet-50 (63.21%) and ResNeXt-50 (62.12%) standing out. Furthermore, a significant gain in explanation stability was observed; in ConvNeXt, for instance, the average CD dropped from 19.58% to 5.91%, and hybrid models, such as Uniformer, also showed relevant improvements, reaching an ADCC of 54.81%. These interpretability gains did not result in significant accuracy losses; classification performance was preserved and, in some cases, even improved, as seen in CoatNet-small, which achieved an F1-Score of 95.14%. In the other backbone models, maximum variations remained below 2.2%. Therefore, this work offers a solution capable of increasing the transparency of deep learning-assisted diagnosis by highlighting relevant regions without compromising accuracy. | en |
| dc.description.sponsorship | Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) | |
| dc.description.sponsorshipId | CAPES: 001 | |
| dc.identifier.capes | 33004153073P2 | |
| dc.identifier.citation | MIGUEL, Pedro Lucas. Integração de mecanismos de atenção em redes neurais convolucionais e híbridas no contexto de imagens histológicas. Dissertação (Mestrado em Ciência da Computação). 2026 – Universidade Estadual Paulista (Unesp), Instituto de Biociências Letras e Ciências Exatas (Ibilce), São José do Rio Preto, 2026. | |
| dc.identifier.orcid | 0009-0007-6809-2633 | |
| dc.identifier.uri | https://hdl.handle.net/11449/319655 | |
| dc.language.iso | por | |
| dc.publisher | Universidade Estadual Paulista (Unesp) | |
| dc.rights.accessRights | Acesso aberto | pt |
| dc.subject | Redes neurais convolucionais | pt |
| dc.subject | Imagens histológicas | pt |
| dc.subject | Attention branches | en |
| dc.subject | Cam fostering | en |
| dc.subject | Vision transformers | en |
| dc.subject | Grad-cam | en |
| dc.subject | Histological images | en |
| dc.title | Integração de mecanismos de atenção em redes neurais convolucionais e híbridas no contexto de imagens histológicas | pt |
| dc.title.alternative | Integrating attention mechanisms in convolutional and hybrid neural networks in the context of histological images | en |
| dc.type | Dissertação de mestrado | pt |
| dspace.entity.type | Publication | |
| relation.isAuthorOfPublication | d23ca929-82a8-482d-a649-5b2e372db290 | |
| relation.isAuthorOfPublication.latestForDiscovery | d23ca929-82a8-482d-a649-5b2e372db290 | |
| relation.isGradProgramOfPublication | d7c91376-28ac-4ea8-aada-e75db43fbca8 | |
| relation.isGradProgramOfPublication.latestForDiscovery | d7c91376-28ac-4ea8-aada-e75db43fbca8 | |
| relation.isOrgUnitOfPublication | 43c38943-bd6f-4fb6-a9a5-8482a1f632c0 | |
| relation.isOrgUnitOfPublication.latestForDiscovery | 43c38943-bd6f-4fb6-a9a5-8482a1f632c0 | |
| unesp.campus | Universidade Estadual Paulista (UNESP), Instituto de Biociências, Letras e Ciências Exatas, São José do Rio Preto | pt |
| unesp.embargo | Online | pt |
| unesp.examinationboard.type | Banca pública | pt |
| unesp.graduateProgram | Ciência da Computação - FC/FCT/IBILCE/IGCE | pt |
| unesp.knowledgeArea | Computação aplicada | pt |
| unesp.researchArea | Inteligência Computacional | pt |
Arquivos
Pacote original
1 - 1 de 1
Carregando...
- Nome:
- miguel_pl_me_sjrp_int.pdf
- Tamanho:
- 10.41 MB
- Formato:
- Adobe Portable Document Format
- Descrição:

