Usuários que assistiram um vídeo com homens negros, postado no dia 27 de junho pelo Daily Mail do Reino Unido no Facebook, receberam uma mensagem automática da plataforma perguntando se eles queriam “continuar assistindo vídeos de primatas”, segundo o New York Times. Depois da reportagem, o Facebook desabilitou toda a função de recomendações feitas pela IA, e está investigando se há um problema de racismo em sua inteligência artificial.
“Foi um erro claramente inaceitável”, um porta-voz do FB disse ao NYT. “Como já dissemos, enquanto fizemos melhorias em nossa IA, sabemos que ela não é perfeita e que há mais progressos a serem feitos. Nos desculpamos com qualquer pessoa que possa ter visto essas recomendações ofensivas.”
Esse está longe de ser o primeiro incidente de IA ou algoritmos de redes sociais mostrando ter vieses racistas. Em julho, o TikTok foi acusado de preconceito racial ao rotular frases do tipo “Vidas Negras Importam” como “conteúdo impróprio”, e culpou seu algoritmo pelo incidente.
O próprio Facebook está sendo investigado nos EUA por suposto viés racista no processo de contratação, o que pode se tornar um processo contra a empresa de Mark Zuckerberg.
Twitter também tem problemas com racismo e sexismo
Em 2020, o Twitter foi acusado de promover racismo e sexismo em sua ferramenta de corte automático de imagem, o que levou a rede social a convocar pesquisadores independentes que pudessem comprovar as afirmações. Em agosto desse ano, o Twitter admitiu os viéses negativos, prometendo mudanças e premiando perfis que levaram a empresa à descoberta.
As acusações eram simples de se entender: basicamente, quando você posta uma imagem no Twitter em modo retrato, o algoritmo da rede social fará o corte (“crop”) dela em modo paisagem. Você só vê a imagem completa caso toque/clique nela para expandi-la na tela.
O problema: algumas pessoas notaram que mulheres e pessoas negras geralmente levavam a maior parte do corte, que acabava priorizando pessoas brancas ou homens. Em um caso específico, um emoji de pele morena foi preterido em relação ao mesmo desenho, mas com pele branca.
Desde então, o Twitter vinha respondendo com atualizações cosméticas – cortes menores no app da rede para o iOS, por exemplo -, ao mesmo tempo em que conduziu investigações internas. Diante de não terem encontrado nada, mas as acusações em si persistindo, a empresa de Jack Dorsey levou o caso à sua própria comunidade, anunciando uma caça a bugs que levassem seu algoritmo a interpretar mulheres e negros de forma negativa.
Em um tuíte e um vídeo compilado pela equipe de engenharia do Twitter – os problemas foram completamente admitidos pela rede social:
Com informações do Olhar Digital