Viés em IA tem dois sentidos importantes — e os dois importam.
Viés estatístico: erro sistemático do modelo. Se você está prevendo preços de imóveis e o modelo sempre subestima o valor em 15%, esse é o viés. Na decomposição clássica do erro (bias-variance tradeoff), bias alto significa modelo simples demais que não captura a realidade; variance alta significa modelo que oscila demais com pequenas mudanças nos dados.
Viés algorítmico ou social: quando o modelo aprende e amplifica preconceitos presentes nos dados ou nas escolhas dos humanos que o construíram. Esse é o tipo de viés que vira manchete.
Exemplos brasileiros e mundiais:
- Sistemas de reconhecimento facial que erram mais com pessoas negras (treinados majoritariamente com fotos de pessoas brancas).
- Modelos de scoring de crédito que penalizam moradores de periferia (correlação injusta entre CEP e inadimplência).
- LLMs que associam "enfermeira" a "ela" e "engenheiro" a "ele" (vieses presentes nos textos da web).
- Tradutores que assumem gênero baseado em estereótipos profissionais.
Por que isso acontece? Modelos aprendem dos dados que recebem. Se os dados refletem desigualdades históricas, o modelo aprende essas desigualdades como se fossem leis da natureza.
Como mitigar:
- Auditar dados: olhar a representatividade antes de treinar.
- Métricas por subgrupo: medir performance separadamente para diferentes grupos demográficos.
- Debiasing: técnicas que ajustam o modelo para reduzir disparidades.
- Documentação: model cards e datasheets que explicitam limitações.
- Diversidade na equipe: quem constrói afeta o que se mede.
No Brasil, o tema ganhou força com a LGPD (que exige explicabilidade de decisões automatizadas) e com debates sobre uso de IA em segurança pública. Para qualquer empresa séria implementando IA em 2026, mitigação de viés não é luxo — é compliance e gestão de risco reputacional.
