Repository logo
 
Publication

Exploring indicators to identify bias in artificial intelligence models

datacite.subject.fosEngenharia e Tecnologia::Outras Engenharias e Tecnologias
datacite.subject.sdg08:Trabalho Digno e Crescimento Económico
dc.contributor.advisorPereira, Ana I.
dc.contributor.advisorMuñoz, Raquel Ávila
dc.contributor.authorSaadi, Omar
dc.date.accessioned2025-07-17T09:16:49Z
dc.date.available2025-07-17T09:16:49Z
dc.date.issued2025
dc.description.abstractThis thesis details the conception, development, and evaluation of the Bias Detector Tool, an open-source Python application specifically built in the context of this work to assess ethical aspects of artificial intelligence (AI) systems. The tool evaluates machine learning (ML) models and datasets across five key ethical dimensions: fairness, transparency, privacy, robustness, and accountability. It is intended to assist researchers, developers, and policy makers to identify ethical risks in AI systems. The tool employs a modular pipeline that processes CSV-format datasets, applies established metrics using specialized libraries such as Fairlearn, Diffprivlib, and LIME and generates comprehensive output reports in TXT, JSON, and CSV formats. It offers a scoring mechanism that classifies each ethical indicator on a scale from 0 to 1 and provides both technical results and simplified interpretations for non-expert users. To validate the tool’s functionality and reliability, a test scenario was conducted in collaboration with Professor Raquel Ávila Muñoz, an expert in Equality, Diversity, and Inclusion at the Complutense University of Madrid. The evaluation compared datasets with limited ethical integrity such as those lacking diversity or metadata with well-structured datasets showing inclusive data practices. The tool successfully reflected these differences through the scoring system confirming its efficacy in identifying ethically problematic datasets. In summary, this work contributes to the field of responsible AI by offering a practical, transparent, and user-friendly approach to ethical assessment. The tool is publicly available via GitHub, encouraging further adaptation and development by the research community.por
dc.description.abstractEsta tese detalha a conceção, desenvolvimento e avaliação da Ferramenta de Detecção de Bias, uma aplicação Python de código aberto especificamente criada no contexto deste trabalho para avaliar os aspectos éticos dos sistemas de inteligência artificial. A ferramenta analisa modelos de machine learning e conjuntos de dados com base em cinco dimensões éticas principais: justiça, transparência, privacidade, robustez e responsabilidade. Ela foi criada para ajudar pesquisadores, desenvolvedores e formuladores de políticas a identificar riscos éticos em sistemas de IA. A ferramenta utiliza um pipeline modular que processa dados no formato CSV, aplica métricas reconhecidas com o uso de bibliotecas especializadas como Fairlearn, Diffprivlib e LIME, e gera relatórios completos nos formatos TXT, JSON e CSV. O sistema de pontuação classifica cada indicador ético numa escala de 0 a 1, oferecendo tanto resultados técnicos quanto interpretações simplificadas para usuários não especializados. Para validar o funcionamento e a confiabilidade da ferramenta, foi realizado um teste em colaboração com a Professora Raquel Ávila Muñoz, especialista em Igualdade, Diversidade e Inclusão na Universidade Complutense de Madrid. A avaliação comparou conjuntos de dados com baixa integridade ética como aqueles com pouca diversidade ou sem metadados com outros bem estruturados, que seguem boas práticas de inclusão. A ferramenta refletiu corretamente essas diferenças por meio de seu sistema de pontuação, confirmando sua eficácia na identificação de conjuntos de dados com problemas éticos. Em resumo, este trabalho contribui para o campo da IA responsável, oferecendo uma abordagem prática, transparente e acessível para a avaliação ética. A ferramenta está disponível publicamente no GitHub, incentivando a sua adaptação e desenvolvimento contínuo pela comunidade científica.por
dc.identifier.tid203970640
dc.identifier.urihttp://hdl.handle.net/10198/34672
dc.language.isoeng
dc.rights.urihttp://creativecommons.org/licenses/by/4.0/
dc.subjectData mining
dc.subjectMachine learning
dc.subjectEDI (equality
dc.subjectdiversity
dc.subjectnclusion)
dc.subjectData preprocessing
dc.subjectEthical indicators
dc.titleExploring indicators to identify bias in artificial intelligence models
dc.typemaster thesis
dspace.entity.typePublication

Files

Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
Omar Saadi.pdf
Size:
1.76 MB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
1.75 KB
Format:
Item-specific license agreed upon to submission
Description: