Pesquisadores do Yahoo! desenvolvem algoritmo capaz de filtrar discursos de ódio

hate

Controlar o que as pessoas falam na internet não é fácil. Como se não bastasse ter de lidar com os trolls de plantão, aqueles que só enchem o saco e em geral são inofensivos há o problema sério da propagação dos discursos de ódio. Comentários racistas, sexistas, elitistas e mais um monte de “istas” desagradáveis permeiam a rede e moderadores e usuários arrancam os cabelos a fim de deixar discussões minimamente saudáveis, já que não dá para calar esses malas sem alça.

Aqui temos o Protocolo ZICA (Zero Comment Idiot Act), que entra em ação toda vez que alguém passa do limite mas ele ainda é um processo manual. Uma ferramenta automatizada seria muito bem-vinda e alguns pesquisadores estão trabalhando nisso. Em 2015 vimos que cientistas da Universidade de Cornell trabalham em um sistema anti-trolls que utiliza aprendizado de máquina, e agora os pesquisadores do Yahoo! Labs apresentaram um modelo mais específico, focado exclusivamente em discursos de ódio. E ele é bem poderoso.

Os corajosos cientistas do Yahoo! Labs, que não tem nada a ver com a divisão recém-vendida à Verizon tiveram que se embrenhar nas profundezas de Deep Web a fim de coletar os comentários e discursos mais cáusticos e nocivos que você pode imaginar. A empreitada foi necessária para desenvolver um filtro mais esperto do que os já existentes por um simples motivo: eles marcam palavras que consideram como possíveis indicadores de discursos negativos, mas não analisam o contexto. Dessa forma, postagens positivas dedicadas a combater os trolls acabam igualmente marcadas e banidas. O Google AdSense é um dos mais notórios a sofrer desse mal, já que ele odeia pr0n e a simples menção à qualquer palavra relacionada a conteúdo adulto já joga o site na lista negra.

O time do Yahoo! Labs assinalou diversas postagens com discursos de ódio e desenvolveu um algoritmo baseado em… sim, você acertou, aprendizado de máquina. Ao coletar os textos e analisar o conteúdo deles, ele memoriza o contexto das frases e as marca como falas que as pessoas em sua maioria não gostariam de encarar. Assim, ao ser testado on the wild o sistema identificou e marcou discursos de ódio com 90% de precisão, um resultado que nenhum outro algoritmo alcançou até agora.

Para Alex Krasodomski-Jones, pesquisador do Centro de Análise de Mídias Sociais de Demos, no Reino Unido alcançar os 10% restantes é uma tarefa ainda mais difícil, já que os trolls utilizam uma linguagem amorfa de propósito: eles constroem frases e diálogos que não se assemelham em nada a discursos de ódio e é complicado para o sistema desmascarar esses casos; ele dá o exemplo de dez tuítes analisados por um grupo, onde dificilmente eles concordarão sobre quais deles é abusivo. Mas estão trabalhando nisso.

De qualquer forma é importante que o pessoal do Yahoo! Labs esteja focado nessa empreitada, pois varrer a internet dos trolls mais nocivos e prejudiciais é uma questão quase de saúde pública. Você pode ler o artigo aqui (cuidado, PDF).

Fonte: MIT Technology Review.

Relacionados: , , , , , , ,

Autor: Ronaldo Gogoni

Profissional de TI auto-didata, blogueiro que acha que é jornalista e careca por opção. Autor do Meio Bit e Portal Deviante, podcaster/membro fundador/Mestre Ancião do SciCast e host/podcaster do Sala da Justiça.

Compartilhar