A falta de transparência de como as plataformas fazem a moderação de conteúdos publicados nas redes sociais está na mira do relator do Projeto de Lei das Fake News, que tramita na Câmara dos Deputados. O detalhamento dessa moderação é temido pelas plataformas que alegam que, de posse dessas informações, usuários consigam burlar o sistema. Para pesquisadores, no entanto, é preciso detalhar o funcionamento do que consideram verdadeiras “caixas pretas” das plataformas.
O novo texto apresentado pelo relator do projeto, deputado Orlando Silva (PCdoB-SP), prevê a obrigatoriedade de que as taxas de detecção ativa de conteúdos irregulares por esses sistemas sejam divulgadas. O que inclui os critérios para a operação, o nível de precisão das tecnologias utilizadas, além das informações sobre o treinamento dos sistemas, o chamado machine learning, que é o aprendizado das máquinas.
Leia também: TSE não consegue conter avanço de fake news, diz especialista
“Se a gente quer entender no dia a dia como a moderação acontece, a automação é o cerne da questão. Para as redes moderarem conteúdo com objetivo de controlar o que está acontecendo dentro delas, não tem como não usar automação, mas existem diferentes formas de usá-la. A gente não tem hoje clareza sobre o que acontece dentro das plataformas. Há vários sistemas para detectar conteúdos diferentes e para cada tipo de violação”, afirmou Artur Pericles, coordenador de liberdade de expressão no InternetLab, ao jornal O Globo.
Tecnologia e recursos humanos
Em 2021, 91% dos vídeos retirados do YouTube em todo o mundo foram identificados de forma automatizada, segundo dados da própria plataforma. O Brasil ocupa a quarta posição de países que mais tiveram publicações removidas. Foram mais de 220 mil casos.
Já no Twitter, por exemplo, mais de 50% do conteúdo que viola suas diretrizes também é identificado por sistemas automatizados, de acordo com O Globo.
Essa diferença nos percentuais se dá pela combinação de diferentes tecnologias com equipes de pessoas no trabalho de moderação.
Para evitar expor dados considerados sensíveis, as plataformas defendem que o relatório seja restrito a autoridades, como o que é feito pelo Conselho Administrativo de Defesa Econômica (Cade), conforme a reportagem.
Querem que o prazo de 180 dias para as adequações também seja revisto, pois alegam que o tempo é insuficiente para gerar as informações que devem constar no relatório.