Atenção!


O atendimento às questões referentes ao Repositório Institucional será interrompido entre os dias 20 de dezembro de 2025 a 4 de janeiro de 2026.

Pedimos a sua compreensão e aproveitamos para desejar boas festas!

Logo do repositório

Comparando técnicas de explicabilidade sobre modelos de linguagem: um estudo de caso na detecção de notícias falsas

dc.contributor.advisorCandido Junior, Arnaldo [UNESP]
dc.contributor.authorVicentini, Jéssica [UNESP} [UNESP]
dc.contributor.coadvisorGuilherme, Ivan Rizzo [UNESP]
dc.contributor.institutionUniversidade Estadual Paulista (Unesp)
dc.date.accessioned2024-08-26T21:46:19Z
dc.date.available2024-08-26T21:46:19Z
dc.date.issued2024-07-29
dc.description.abstractModelos de linguagem têm sido amplamente adotados em várias aplicações de processamento de linguagem natural. Seu sucesso em tarefas como tradução automática, classificação e geração de texto impulsionou sua popularidade. No entanto, esses modelos são frequentemente considerados ``caixas-opacas'' devido à sua complexidade e dificuldade de interpretação. A falta de transparência e de entendimento interno desses modelos levanta questões sobre sua confiabilidade e limita sua adoção em cenários críticos, como a tomada de decisão em áreas sensíveis. Nesse contexto, o presente trabalho visa explorar técnicas de Inteligência Artificial Explicável para interpretar e entender o comportamento dos modelos de linguagem. Especificamente, foca nos métodos Model-Agnostic Explanations (LIME) e Integrated Gradients (IG). O estudo de caso envolve a análise da eficácia de modelos BERTimbau treinados no contexto da classificação de notícias em português brasileiro como reais ou falsas, utilizando os conjuntos de dados FakeRecogna e Fake.Br Corpus, e buscar compreender se esses métodos são eficazes para esse cenário.pt
dc.description.abstractLanguage models have been widely adopted in various natural language processing applications. Their success in tasks such as machine translation, classification, and text generation has driven their popularity. However, these models are often considered ``black-boxes'' due to their complexity and difficulty of interpretation. The lack of transparency and internal understanding of these models raises questions about their reliability and limits their adoption in critical scenarios, such as decision-making in sensitive areas. In this context, the present work aims to explore techniques of Explainable Artificial Intelligence to interpret and understand the behavior of language models. Specifically, it focuses on the methods Model-Agnostic Explanations (LIME) and Integrated Gradients (IG). The case study involves analyzing the effectiveness of BERTimbau models trained in the context of classifying Brazilian Portuguese news as real or fake, using the FakeRecogna and Fake.Br Corpus datasets, and seeks to understand if these methods are effective for this scenario.en
dc.identifier.capes33004153073P2
dc.identifier.citationVICENTINI, Jéssica. Comparando técnicas de explicabilidade sobre modelos de linguagem: um estudo de caso na detecção de notícias falsas. 2024. Dissertação (Mestrado em Ciência da Computação) – Universidade Estadual Paulista (Unesp), Instituto de Biociências Letras e Ciências Exatas (Ibilce), São José do Rio Preto, 2024.
dc.identifier.lattes0216901781150160
dc.identifier.orcid0009-0005-2529-8020
dc.identifier.urihttps://hdl.handle.net/11449/257181
dc.language.isopor
dc.publisherUniversidade Estadual Paulista (Unesp)
dc.rights.accessRightsAcesso abertopt
dc.subjectInteligência artificialpt
dc.subjectInteligência artificial explicávelpt
dc.subjectNotícias falsaspt
dc.subjectProcessamento de linguagem natural (Computação)pt
dc.subjectAprendizado de máquinapt
dc.subjectExplainable artificial intelligenceen
dc.subjectFake newsen
dc.titleComparando técnicas de explicabilidade sobre modelos de linguagem: um estudo de caso na detecção de notícias falsaspt
dc.title.alternativeComparing explainability techniques on language models: a case study on fake news detectionen
dc.typeDissertação de mestradopt
dspace.entity.typePublication
unesp.campusUniversidade Estadual Paulista (UNESP), Instituto de Biociências, Letras e Ciências Exatas, São José do Rio Pretopt
unesp.embargoOnlinept
unesp.examinationboard.typeBanca públicapt
unesp.graduateProgramCiência da Computação - FC/FCT/IBILCE/IGCEpt
unesp.knowledgeAreaComputação aplicadapt
unesp.researchAreaInteligência Computacionalpt

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
vicentini_j_me_sjrp.pdf
Tamanho:
29.84 MB
Formato:
Adobe Portable Document Format

Licença do pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
2.14 KB
Formato:
Item-specific license agreed upon to submission
Descrição: