Recentemente comecei a me dedicar mais a fundo no estudo de machine learning e uma suspeita que tinha, mas não conseguia por em palavras, foi exposta neste artigo: Inteligência Artificial: a caixa preta que prejudica as minorias (https://imasters.com.br/desenvolvimento/inteligencia-artificial-caixa-preta-que-prejudica-minorias) de Carla Vieira.
É levantada uma questão muito interessante: de que maneira nós, desenvolvedores, acabamos por enviesar nossos algoritmos no momento em que alimentamos nossos modelos no desenvolvimento de soluções envolvendo aprendizado de máquina?
São apresentados alguns exemplos e referências bem interessantes, o que me motivou trazer para cá esta discussão buscando com isto opiniões (preferencialmente mais interessantes que os comentários postados no final do artigo pela comunidade) aqui, na Taverna.
(a imagem deste post, por exemplo, veio do artigo da Carla, em que a imagem de um homem na cozinha o caracterizou como mulher em um algoritmo de detecção de imagens)
O que vocês acham disto? Realmente podemos enviesar nossos algoritmos levando para eles nossos próprios preconceitos ou já existem técnicas que possibilitam minimizar este risco?
Uma das soluções apresentadas pela Carla foi a presença de equipes que apresentem maior diversidade. Realmente, faz sentido, mas como podemos gerenciar estas equipes pra mitigar o risco e, ainda mais importante, em equipes que não tenham grande diversidade, como tratar?
Sugeri à Carla por Twitter que publicasse uma bibliografia comentada sobre o tema, e ela me mostrou um trabalho que já iniciou mas ainda não possui muito conteúdo que pode ser visto neste link: https://github.com/carlaprv/material-de-estudo-ia-bias
Enfim, achei o assunto fascinante e quero agora discutir aqui com vocês a respeito. Qualquer contribuição para a discussão é super válida.