O algoritmo que o Twitter usa para criar pré-visualizações de fotos tem sido alvo de grandes críticas. O mecanismo é utilizado para diminuir o espaço da imagem no tweet, dando uma prévia antes de abri-la por completo. Acontece que os usuários da rede social apontaram que o recurso de corte automático está inclinado a focar mais em rostos brancos em vez de negros, gerando acusações dos internautas de que a ferramenta teria um viés racista.
O primeiro a levantar essa questão foi o americano Colin Madland, que descobriu o problema enquanto destacava um erro no reconhecimento facial do Zoom. O software não mostrava o rosto de um colega negro nas ligações, e quando ele postou imagens da situação no Twitter, a plataforma cortou automaticamente para mostrar apenas Madland em destaque.
any guesses? pic.twitter.com/9aIZY4rSCX
— Colin Madland 🇺🇦 (@colinmadland) September 19, 2020
Outros seguiram com experimentos mais direcionados ao Twitter, e um tópico com fotos de políticos americanos — o ex-presidente, Barack Obama e o senador, Mitch McConnell — tornou-se especialmente viral ao mostrar que o algoritmo sempre cortava o ex-presidente. Na primeira montagem, a foto do senador branco está em cima, e a de Obama, embaixo. Na segunda montagem, a posição das imagens foi invertida.
Replicando um teste gringo.
Vamos vê qual o algoritmo do Twitter vai escolher: Mitch McConnell ou Barack Obama? pic.twitter.com/FCYyJCKMWh— Joel Luiz (@joelluiz_adv) September 20, 2020
Em repetidas experiências, o mesmo aconteceu. Vários usuários começaram a testar com diferentes fotos de pessoas brancas e negras. Na maioria das vezes, a fotografia de brancos continuou sendo priorizada — até mesmo no caso em que usaram uma imagem do desenho “Os Simpsons”, o personagem mais “claro” foi colocado em destaque.
https://twitter.com/itsfabiojunior/status/1307488711584690176
https://twitter.com/spartakusvlog/status/1307901864797761536
https://twitter.com/_jsimonovski/status/1307542747197239296
Em nota, a conta oficial do Twitter explicou que fizeram uma série de testes antes de lançar o modelo e não encontraram evidências de preconceito racial ou de gênero. E ainda acrescentou: “Está claro que temos mais análises a fazer. Continuaremos compartilhando nossos aprendizados e medidas, e abriremos o código para que outros possam revisá-lo”.
Fizemos uma série de testes antes de lançar o modelo e não encontramos evidências de preconceito racial ou de gênero. Está claro que temos mais análises a fazer. Continuaremos compartilhando nossos aprendizados e medidas, e abriremos o código para que outros possam revisá-lo. https://t.co/yZphB9pK5p
— Brasil (@XBR) September 21, 2020
O diretor executivo de design da empresa, Dantley Davis, disse que estavam investigando a rede neural, mas fez alguns experimentos informais por conta própria, tuitando o resultado: “Não é um teste científico, pois é um exemplo isolado, mas aponta para algumas variáveis que precisamos analisar. Os dois homens agora têm os mesmos ternos e eu cobri suas mãos”. Na imagem, o recorte está em uma pessoa negra.
Here's another example of what I've experimented with. It's not a scientific test as it's an isolated example, but it points to some variables that we need to look into. Both men now have the same suits and I covered their hands. We're still investigating the NN. pic.twitter.com/06BhFgDkyA
— Dantley Davis (@dantley) September 20, 2020