AI (Artificial Intelligence)

MTA-27 - ModTalks - Identificação e mitigação de bias em algoritmos com o Fairlearn (MTA-27)


Descrição
Neste estudo reproduzimos e interpretamos os resultados de um tutorial introdutório ao Fairlearn (https://fairlearn.org/), uma ferramenta open-source que visa apoiar cientistas de dados no desenvolvimento de sistemas de IA mais “justos” (menos discriminatórios), através da detecção e eliminação (tanto quanto possível) de bias em algoritmos. O Fairlearn é integrado ao Azure Machine Learning Studio da Microsoft, que é o ambiente utilizado na demonstração. Márcio Galvão, 2022.

CARGA: 2 horas OBRIGATÓRIO: Não

Conteúdo
  • Detectando e mitigando discriminação em modelos de Machine Learning
  • Como testar modelos de imparcialidade com o aprofundamento noFairlearn
  • MTA-27 - Feedback
Regras para conclusão
  • Todas as unidades precisam ser concluídas
  • Leads to a certificate with a duration: Não expira