Discurso de Ódio: Inteligência artificial brasileira e as ações do Facebook

Discurso de Ódio: Inteligência artificial brasileira e as ações do Facebook

O discurso de ódio virou um “trabalho hercúleo” do mundo atual. Enquanto alguns tentam combater a prática, um lado obscuro da internet parece não se cansar de proliferar robôs que disseminam preconceito e fake news. Segundo a Bloomberg, o Facebook removeu 22,5 milhões de postagens com discurso de ódio entre os meses de abril e junho de 2020 (o número é o dobro do que foi removido no primeiro trimestre do mesmo ano). Além disso, o Facebook anunciou que os seus termos foram atualizados e passam a banir “discurso de ódio implícito”.

“Este tipo de conteúdo sempre foi contra a essência da nossa política de discurso de ódio, mas pode ser difícil pegar essas nuances, especialmente aqueles [discursos] expressados por via de imagens, e defini-los de forma que permita aos nossos analistas de conteúdo espalhados pelo mundo identificarem violações de forma consistente e com justiça”, afirma a vice-presidente de Política de Conteúdo, Monika Bicket. Segundo o portal MSN, “a decisão do Facebook foi tomada depois de a empresa consultar múltiplos especialistas e grupos de direitos civis ao longo dos últimos meses.”

Facebook e Twitter têm adotado medidas mais duras depois que se viram no olho do furacão das discussões sobre o combate aos discursos de ódio e a perda de anunciantes (leia mais no texto “Marcas apoiam e boicote pressiona Facebook contra discurso de ódio”). 

No Brasil, além das discussões no Congresso em torno do projeto de lei 2630/2020 — conhecido como “PL das Fake News”; o Centro de Estudos sobre Tecnologias Web (Ceweb.br) do Núcleo de Informação e Coordenação do Ponto BR (NIC.br), em parceria com a Pontifícia Universidade de São Paulo (PUC) e Queen Mary University of London, está desenvolvendo um projeto de pesquisa para a categorização de discursos de ódio na Internet. Ainda em fase de inicial, o código está disponível para domínio público na plataforma GitHub. Qualquer participante da comunidade técnica e científica pode acessar o conteúdo e contribuir para o seu desenvolvimento.

Segundo Diogo Cortiz, especialista do Ceweb.br e um dos desenvolvedores do código, o projeto utilizou como base um modelo de processamento de linguagem natural, no qual o código foi desenvolvido com um conjunto de sentenças para a detecção do discurso de ódio. “Com isso, o algoritmo consegue identificar possíveis sentenças que possam conter algum tipo de violação ou ofensas, como racismo, intolerância religiosa ou xenofobia. Entendemos que essa é uma área extremamente sensível e temos clareza que devemos acima de tudo defender princípios democráticos como liberdade de expressão, diversidade, privacidade, universalidade e neutralidade na rede. Esta pesquisa não tem como como objetivo gerar mecanismos de retirada automática de conteúdo ou para investigações, mas apenas explorar as potencialidades da Inteligência Artificial no uso da linguagem natural nas redes sociais como dados para categorizar diferentes tipos de discursos”, diz Cortiz.

“Acreditamos que, em um momento em que a web é uma das principais plataformas de veiculação de informação, expressão e comunicação e que, por meio das redes sociais, milhões de pessoas expõem suas opiniões a respeito de diversos assuntos, o código será um importante aliado para melhor compreender as informações que fluem na grande rede mundial de computadores. Ainda não sabemos se esse algoritmo em que estamos trabalhando compartilha de características como equidade, confiabilidade e segurança, obrigatórias em quaisquer algoritmos de inteligência artificial. É por isso que convocamos a comunidade de pesquisadores e desenvolvedores a se juntar a nós no desenvolvimento desse código. Garantimos que o algoritmo seja aberto e transparente o suficiente para informar como ele chega a conclusões. Assim também esperamos poder dizer que ele é seguro e respeita a privacidade”, acrescenta Vagner Diniz, Gerente do Ceweb.br.

A preocupação do Ceweb.br em ter um código aberto e com diretrizes claras é uma questão válida. Especialistas em inteligência artificial já discutem se as IAs podem ser preconceituosas ou discriminatórias, uma vez que o código (e suas diretrizes) são construídas por seres humanos e poderiam conter preconceitos, mesmo de forma implícita — leia mais no texto “‘Hey, Atualize Minha Voz’: Uma campanha contra o assédio às assistentes virtuais”.

Compartilhe esse artigo: