CausalBioCF: contrafactuais causais para interpretabilidade de modelos de aprendizado de máquina
| dc.contributor.advisor | Baldassin, Alexandro [UNESP] | |
| dc.contributor.author | Furlanetto, Gabriel Covello [UNESP] | |
| dc.contributor.committeeMember | Cozman, Fabio Gagliardi | |
| dc.contributor.committeeMember | Raimundo, Marcos Medeiros | |
| dc.contributor.committeeMember | Papa, João Paulo [UNESP] | |
| dc.contributor.committeeMember | Cândido Júnior, Arnaldo [UNESP] | |
| dc.contributor.committeeMember | Baldassin, Alexandro José [UNESP] | |
| dc.contributor.institution | Universidade Estadual Paulista (Unesp) | pt |
| dc.date.accessioned | 2026-02-03T16:57:43Z | |
| dc.date.issued | 2026-01-13 | |
| dc.description.abstract | À medida que a inteligência artificial se torna comum aos processos de tomada de decisão, explicar o comportamento do modelo é essencial para promover a confiança, detectar vieses e garantir a conformidade com as regulamentações de proteção de dados, como a LGPD do Brasil e o GDPR da União Europeia. Entre as técnicas de interpretabilidade, as explicações contrafactuais oferecem esclarecimentos intuitivos sobre as decisões do modelo, ilustrando as mudanças mínimas necessárias para alterar um resultado. No entanto, as abordagens existentes frequentemente falham em gerar contrafactuais acionáveis que respeitem as restrições causais, lógicas e físicas, e carecem de meios confiáveis para avaliar a qualidade das explicações geradas. Este trabalho contribui para a explicabilidade contrafactual ao introduzir uma abordagem orientada por diretrizes de causalidade que restringem e direcionam o processo de geração, resultando em explicações mais realistas e viáveis. Além disso, propõe um método de avaliação capaz de medir sistematicamente a acionabilidade e a utilidade prática dessas explicações, uma dimensão frequentemente negligenciada na literatura. Essas contribuições são materializadas no CausalBioCF, um método que integra abordagens de avaliação causal a um processo de otimização bioinspirado baseado em Algoritmo Genético, no qual o conhecimento de domínio é incorporado na forma de restrições, permitindo a geração de contrafactuais válidos e efetivamente acionáveis. Experimentos realizados sobre múltiplos conjuntos de dados tabulares, abrangendo domínios como crédito, marketing bancário, justiça criminal e análise de comportamento do usuário, mostram que o CausalBioCF produz contrafactuais que são causalmente fundamentados e praticamente acionáveis, alcançando desempenho competitivo ou superior em comparação com métodos estabelecidos como DiCE, NICE e CFNOW em vários critérios, incluindo acionabilidade, esparsidade, proximidade, validade e tempo de execução. O trabalho também evidencia que adicionar informações causais a outros algoritmos, como o DiCE, pode melhorar significativamente a qualidade e a utilidade dos contrafactuais que eles produzem. Observa-se um aumento de 71,4% na proporção de contrafactuais acionáveis produzidos pelo CausalBioCF em comparação ao DiCE, representando o maior ganho estatisticamente significativo entre os métodos avaliados. Em relação ao NICE, o sistema apresenta uma melhoria de 15,2%. Além disso, a incorporação de conhecimento causal ao DiCE resulta em um incremento de 39,1% na geração de contrafactuais acionáveis quando comparado à versão original do algoritmo. | pt |
| dc.description.abstract | As artificial intelligence becomes increasingly embedded in decision-making processes, explaining model behavior is essential to foster trust, detect bias, and ensure compliance with data protection regulations such as Brazil’s LGPD and EU's GDPR. Among interpretability techniques, counterfactual explanations offer intuitive insights into model decisions by illustrating the minimal changes needed to alter an outcome. However, existing approaches often fail to generate actionable counterfactuals that respect causal, logical, and physical constraints, and lack reliable means to evaluate the quality of the generated explanations. This work contributes to counterfactual explainability by introducing an approach guided by principles of causality that constrains and directs the generation process, resulting in more realistic and viable explanations. In addition, it proposes an evaluation method capable of systematically measuring the actionability and practical utility of these explanations, a dimension that has been frequently overlooked in the literature. These contributions are materialized in CausalBioCF, a method that integrates causal evaluation approaches into a bioinspired optimization process based on a Genetic Algorithm, in which domain knowledge is incorporated in the form of constraints, enabling the generation of valid and effectively actionable counterfactuals. Experiments conducted on multiple tabular datasets, covering domains such as credit scoring, bank marketing, criminal justice, and user behavior analysis, show that CausalBioCF produces counterfactuals that are both causally grounded and practically actionable, achieving competitive or superior performance compared to established methods such as DiCE, NICE, and CFNOW across multiple criteria, including actionability, sparsity, proximity, validity, and execution time. The work also shows that adding causal information to systems like DiCE can significantly enhance the quality and usefulness of the counterfactuals they produce. We observe a 71.4% increase in the proportion of actionable counterfactuals produced by CausalBioCF compared to DiCE, representing the largest statistically significant improvement among the evaluated methods. Compared to NICE, the system achieves an improvement of 15.2%. Furthermore, incorporating causal knowledge into DiCE results in a 39.1% increase in the generation of actionable counterfactuals compared to the original algorithm. | en |
| dc.description.sponsorshipId | Não recebi financiamento | |
| dc.identifier.capes | 33004153073P2 | |
| dc.identifier.lattes | 9697669047428418 | |
| dc.identifier.orcid | 0000-0003-2917-9182 | |
| dc.identifier.uri | https://hdl.handle.net/11449/319197 | |
| dc.language.iso | por | |
| dc.publisher | Universidade Estadual Paulista (Unesp) | |
| dc.rights.accessRights | Acesso aberto | pt |
| dc.subject | Contrafactuais | pt |
| dc.subject | Causalidade | pt |
| dc.subject | Aprendizado de máquina | pt |
| dc.subject | Conhecimento de domínio | pt |
| dc.subject | Acionabilidade | pt |
| dc.subject | Counterfactuals | en |
| dc.subject | Causality | en |
| dc.subject | Machine learning | en |
| dc.subject | Knowledge domain | en |
| dc.subject | Actionability | en |
| dc.title | CausalBioCF: contrafactuais causais para interpretabilidade de modelos de aprendizado de máquina | pt |
| dc.title.alternative | CausalBioCF: causal counterfactuals for the interpretability of machine learning models | en |
| dc.type | Tese de doutorado | pt |
| dcterms.impact | Esta pesquisa é uma contribuição na área de interpretabilidade de algoritmos de aprendizado de máquina. Por meio da integração entre análise de causalidade, geradores de contrafactuais e a proposição de uma metodologia para verificação e mensuração da acionabilidade de contrafactuais, o trabalho possibilita maior transparência e justiça em decisões automatizadas. Além disso, a pesquisa é aplicável a áreas multidisciplinares, como finanças, principalmente na análise de crédito e inadimplência, pesquisas relacionadas à saúde, marketing, compondo a recomendação de produtos e serviços públicos, com potencial de parcerias com órgãos e empresas. | pt |
| dcterms.impact | This research contributes to the field of interpretability of machine learning algorithms. By integrating causality analysis, counterfactual generators and proposing a methodology to verify and measure the actionability of counterfactuals, the work enables greater transparency and fairness in automated decisions. Furthermore, research is applicable to multidisciplinary fields, such as finance, particularly in credit and default analysis, healthcare-related research, marketing, and recommendations for public products and services, with potential for partnerships with agencies and companies. | en |
| dspace.entity.type | Publication | |
| relation.isAuthorOfPublication | cf2b66dc-73dc-4ff9-84bb-5dd7e400d321 | |
| relation.isAuthorOfPublication.latestForDiscovery | cf2b66dc-73dc-4ff9-84bb-5dd7e400d321 | |
| unesp.campus | Universidade Estadual Paulista (UNESP), Instituto de Geociências e Ciências Exatas, Rio Claro | pt |
| unesp.embargo | Online | pt |
| unesp.examinationboard.type | Banca pública | pt |
| unesp.graduateProgram | Ciência da Computação - FC/FCT/IBILCE/IGCE | pt |
| unesp.knowledgeArea | Computação aplicada | pt |
| unesp.researchArea | Sistemas de computação | pt |
Arquivos
Pacote original
1 - 1 de 1
Carregando...
- Nome:
- furlanetto_gc_dr_rcla.pdf
- Tamanho:
- 928.74 KB
- Formato:
- Adobe Portable Document Format
Licença do pacote
1 - 1 de 1
Carregando...
- Nome:
- license.txt
- Tamanho:
- 2.14 KB
- Formato:
- Item-specific license agreed upon to submission
- Descrição:

