Logo do repositório

CausalBioCF: contrafactuais causais para interpretabilidade de modelos de aprendizado de máquina

dc.contributor.advisorBaldassin, Alexandro [UNESP]
dc.contributor.authorFurlanetto, Gabriel Covello [UNESP]
dc.contributor.committeeMemberCozman, Fabio Gagliardi
dc.contributor.committeeMemberRaimundo, Marcos Medeiros
dc.contributor.committeeMemberPapa, João Paulo [UNESP]
dc.contributor.committeeMemberCândido Júnior, Arnaldo [UNESP]
dc.contributor.committeeMemberBaldassin, Alexandro José [UNESP]
dc.contributor.institutionUniversidade Estadual Paulista (Unesp)pt
dc.date.accessioned2026-02-03T16:57:43Z
dc.date.issued2026-01-13
dc.description.abstractÀ medida que a inteligência artificial se torna comum aos processos de tomada de decisão, explicar o comportamento do modelo é essencial para promover a confiança, detectar vieses e garantir a conformidade com as regulamentações de proteção de dados, como a LGPD do Brasil e o GDPR da União Europeia. Entre as técnicas de interpretabilidade, as explicações contrafactuais oferecem esclarecimentos intuitivos sobre as decisões do modelo, ilustrando as mudanças mínimas necessárias para alterar um resultado. No entanto, as abordagens existentes frequentemente falham em gerar contrafactuais acionáveis que respeitem as restrições causais, lógicas e físicas, e carecem de meios confiáveis para avaliar a qualidade das explicações geradas. Este trabalho contribui para a explicabilidade contrafactual ao introduzir uma abordagem orientada por diretrizes de causalidade que restringem e direcionam o processo de geração, resultando em explicações mais realistas e viáveis. Além disso, propõe um método de avaliação capaz de medir sistematicamente a acionabilidade e a utilidade prática dessas explicações, uma dimensão frequentemente negligenciada na literatura. Essas contribuições são materializadas no CausalBioCF, um método que integra abordagens de avaliação causal a um processo de otimização bioinspirado baseado em Algoritmo Genético, no qual o conhecimento de domínio é incorporado na forma de restrições, permitindo a geração de contrafactuais válidos e efetivamente acionáveis. Experimentos realizados sobre múltiplos conjuntos de dados tabulares, abrangendo domínios como crédito, marketing bancário, justiça criminal e análise de comportamento do usuário, mostram que o CausalBioCF produz contrafactuais que são causalmente fundamentados e praticamente acionáveis, alcançando desempenho competitivo ou superior em comparação com métodos estabelecidos como DiCE, NICE e CFNOW em vários critérios, incluindo acionabilidade, esparsidade, proximidade, validade e tempo de execução. O trabalho também evidencia que adicionar informações causais a outros algoritmos, como o DiCE, pode melhorar significativamente a qualidade e a utilidade dos contrafactuais que eles produzem. Observa-se um aumento de 71,4% na proporção de contrafactuais acionáveis produzidos pelo CausalBioCF em comparação ao DiCE, representando o maior ganho estatisticamente significativo entre os métodos avaliados. Em relação ao NICE, o sistema apresenta uma melhoria de 15,2%. Além disso, a incorporação de conhecimento causal ao DiCE resulta em um incremento de 39,1% na geração de contrafactuais acionáveis quando comparado à versão original do algoritmo.pt
dc.description.abstractAs artificial intelligence becomes increasingly embedded in decision-making processes, explaining model behavior is essential to foster trust, detect bias, and ensure compliance with data protection regulations such as Brazil’s LGPD and EU's GDPR. Among interpretability techniques, counterfactual explanations offer intuitive insights into model decisions by illustrating the minimal changes needed to alter an outcome. However, existing approaches often fail to generate actionable counterfactuals that respect causal, logical, and physical constraints, and lack reliable means to evaluate the quality of the generated explanations. This work contributes to counterfactual explainability by introducing an approach guided by principles of causality that constrains and directs the generation process, resulting in more realistic and viable explanations. In addition, it proposes an evaluation method capable of systematically measuring the actionability and practical utility of these explanations, a dimension that has been frequently overlooked in the literature. These contributions are materialized in CausalBioCF, a method that integrates causal evaluation approaches into a bioinspired optimization process based on a Genetic Algorithm, in which domain knowledge is incorporated in the form of constraints, enabling the generation of valid and effectively actionable counterfactuals. Experiments conducted on multiple tabular datasets, covering domains such as credit scoring, bank marketing, criminal justice, and user behavior analysis, show that CausalBioCF produces counterfactuals that are both causally grounded and practically actionable, achieving competitive or superior performance compared to established methods such as DiCE, NICE, and CFNOW across multiple criteria, including actionability, sparsity, proximity, validity, and execution time. The work also shows that adding causal information to systems like DiCE can significantly enhance the quality and usefulness of the counterfactuals they produce. We observe a 71.4% increase in the proportion of actionable counterfactuals produced by CausalBioCF compared to DiCE, representing the largest statistically significant improvement among the evaluated methods. Compared to NICE, the system achieves an improvement of 15.2%. Furthermore, incorporating causal knowledge into DiCE results in a 39.1% increase in the generation of actionable counterfactuals compared to the original algorithm.en
dc.description.sponsorshipIdNão recebi financiamento
dc.identifier.capes33004153073P2
dc.identifier.lattes9697669047428418
dc.identifier.orcid0000-0003-2917-9182
dc.identifier.urihttps://hdl.handle.net/11449/319197
dc.language.isopor
dc.publisherUniversidade Estadual Paulista (Unesp)
dc.rights.accessRightsAcesso abertopt
dc.subjectContrafactuaispt
dc.subjectCausalidadept
dc.subjectAprendizado de máquinapt
dc.subjectConhecimento de domíniopt
dc.subjectAcionabilidadept
dc.subjectCounterfactualsen
dc.subjectCausalityen
dc.subjectMachine learningen
dc.subjectKnowledge domainen
dc.subjectActionabilityen
dc.titleCausalBioCF: contrafactuais causais para interpretabilidade de modelos de aprendizado de máquinapt
dc.title.alternativeCausalBioCF: causal counterfactuals for the interpretability of machine learning modelsen
dc.typeTese de doutoradopt
dcterms.impactEsta pesquisa é uma contribuição na área de interpretabilidade de algoritmos de aprendizado de máquina. Por meio da integração entre análise de causalidade, geradores de contrafactuais e a proposição de uma metodologia para verificação e mensuração da acionabilidade de contrafactuais, o trabalho possibilita maior transparência e justiça em decisões automatizadas. Além disso, a pesquisa é aplicável a áreas multidisciplinares, como finanças, principalmente na análise de crédito e inadimplência, pesquisas relacionadas à saúde, marketing, compondo a recomendação de produtos e serviços públicos, com potencial de parcerias com órgãos e empresas.pt
dcterms.impactThis research contributes to the field of interpretability of machine learning algorithms. By integrating causality analysis, counterfactual generators and proposing a methodology to verify and measure the actionability of counterfactuals, the work enables greater transparency and fairness in automated decisions. Furthermore, research is applicable to multidisciplinary fields, such as finance, particularly in credit and default analysis, healthcare-related research, marketing, and recommendations for public products and services, with potential for partnerships with agencies and companies.en
dspace.entity.typePublication
relation.isAuthorOfPublicationcf2b66dc-73dc-4ff9-84bb-5dd7e400d321
relation.isAuthorOfPublication.latestForDiscoverycf2b66dc-73dc-4ff9-84bb-5dd7e400d321
unesp.campusUniversidade Estadual Paulista (UNESP), Instituto de Geociências e Ciências Exatas, Rio Claropt
unesp.embargoOnlinept
unesp.examinationboard.typeBanca públicapt
unesp.graduateProgramCiência da Computação - FC/FCT/IBILCE/IGCEpt
unesp.knowledgeAreaComputação aplicadapt
unesp.researchAreaSistemas de computaçãopt

Arquivos

Pacote original

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
furlanetto_gc_dr_rcla.pdf
Tamanho:
928.74 KB
Formato:
Adobe Portable Document Format

Licença do pacote

Agora exibindo 1 - 1 de 1
Carregando...
Imagem de Miniatura
Nome:
license.txt
Tamanho:
2.14 KB
Formato:
Item-specific license agreed upon to submission
Descrição: