Repository logo
 
Loading...
Thumbnail Image
Publication

Exploring indicators to identify bias in artificial intelligence models

Use this identifier to reference this record.
Name:Description:Size:Format: 
Omar Saadi.pdf1.76 MBAdobe PDF Download

Abstract(s)

This thesis details the conception, development, and evaluation of the Bias Detector Tool, an open-source Python application specifically built in the context of this work to assess ethical aspects of artificial intelligence (AI) systems. The tool evaluates machine learning (ML) models and datasets across five key ethical dimensions: fairness, transparency, privacy, robustness, and accountability. It is intended to assist researchers, developers, and policy makers to identify ethical risks in AI systems. The tool employs a modular pipeline that processes CSV-format datasets, applies established metrics using specialized libraries such as Fairlearn, Diffprivlib, and LIME and generates comprehensive output reports in TXT, JSON, and CSV formats. It offers a scoring mechanism that classifies each ethical indicator on a scale from 0 to 1 and provides both technical results and simplified interpretations for non-expert users. To validate the tool’s functionality and reliability, a test scenario was conducted in collaboration with Professor Raquel Ávila Muñoz, an expert in Equality, Diversity, and Inclusion at the Complutense University of Madrid. The evaluation compared datasets with limited ethical integrity such as those lacking diversity or metadata with well-structured datasets showing inclusive data practices. The tool successfully reflected these differences through the scoring system confirming its efficacy in identifying ethically problematic datasets. In summary, this work contributes to the field of responsible AI by offering a practical, transparent, and user-friendly approach to ethical assessment. The tool is publicly available via GitHub, encouraging further adaptation and development by the research community.
Esta tese detalha a conceção, desenvolvimento e avaliação da Ferramenta de Detecção de Bias, uma aplicação Python de código aberto especificamente criada no contexto deste trabalho para avaliar os aspectos éticos dos sistemas de inteligência artificial. A ferramenta analisa modelos de machine learning e conjuntos de dados com base em cinco dimensões éticas principais: justiça, transparência, privacidade, robustez e responsabilidade. Ela foi criada para ajudar pesquisadores, desenvolvedores e formuladores de políticas a identificar riscos éticos em sistemas de IA. A ferramenta utiliza um pipeline modular que processa dados no formato CSV, aplica métricas reconhecidas com o uso de bibliotecas especializadas como Fairlearn, Diffprivlib e LIME, e gera relatórios completos nos formatos TXT, JSON e CSV. O sistema de pontuação classifica cada indicador ético numa escala de 0 a 1, oferecendo tanto resultados técnicos quanto interpretações simplificadas para usuários não especializados. Para validar o funcionamento e a confiabilidade da ferramenta, foi realizado um teste em colaboração com a Professora Raquel Ávila Muñoz, especialista em Igualdade, Diversidade e Inclusão na Universidade Complutense de Madrid. A avaliação comparou conjuntos de dados com baixa integridade ética como aqueles com pouca diversidade ou sem metadados com outros bem estruturados, que seguem boas práticas de inclusão. A ferramenta refletiu corretamente essas diferenças por meio de seu sistema de pontuação, confirmando sua eficácia na identificação de conjuntos de dados com problemas éticos. Em resumo, este trabalho contribui para o campo da IA responsável, oferecendo uma abordagem prática, transparente e acessível para a avaliação ética. A ferramenta está disponível publicamente no GitHub, incentivando a sua adaptação e desenvolvimento contínuo pela comunidade científica.

Description

Keywords

Data mining Machine learning EDI (equality diversity nclusion) Data preprocessing Ethical indicators

Citation

Research Projects

Organizational Units

Journal Issue