Redes sociais falham em moderar conteúdos relacionados a violência

A portaria do Ministério da Justiça (MJSP), que dispõe sobre medidas administrativas a serem adotadas com objetivo de prevenção à disseminação de conteúdos flagrantemente ilícitos, prejudiciais ou danosos por plataformas de redes sociais ataca um problema importante, mas falha na escolha das ferramentas empregadas. A análise é do professor da Faculdade de Direito da Uerj, doutor em direito civil e diretor do Instituto de Tecnologia e Sociedade do Rio de Janeiro (ITS), Carlos Affonso de Souza.

“Claramente as plataformas, em especial o Twitter, vem falhando em moderar conteúdos relacionados à violência nas escolas, com situações de glorificação sobre atiradores, sobre atos de violência no passado, claramente existe assim uma falha de moderação por parte das empresas. Só que esse erro acaba sendo sucedido por outra situação que também me parece ser passível de críticas”, fala o especialista.

“Porque, se por uma lado, é importante existir uma atuação por parte do governo, das autoridades no combate a esse tipo de material, primeiro acho que se pode questionar o fato de isso vir a partir de uma portaria e de uma portaria que cria ferramentas que dão ao Executivo a possibilidade de dizer o que é lícito e o que é ilícito”.

Segundo Carlos, essa é uma prerrogativa do Judiciário e, de certa maneira, a implementação do texto do MJSP representa a primeira vez — na história da internet brasileira — em que o Executivo indicará os materiais a serem removidos. “Mesmo em 2022, uma resolução do Tribunal Superior Eleitoral, do ministro Alexandre de Moraes, que foi bastante comentada, sobre remoção rápida, expressa de conteúdos da internet, tratava-se de uma remoção que vinha a partir do Judiciário. Por isso me parece que a portaria é passível de críticas, embora entenda que ela trate de um tema bastante relevante, de caráter urgente”, ressalta o professor. A resolução à qual se referiu foi aprovada pelo TSE em outubro do ano passado, antes do segundo turno das eleições, e ampliou os poderes da Corte para combater a disseminação de notícias falsas nas redes sociais.

Para o advogado Alexander Coelho, especializado em direito digital e proteção de dados, e integrante da Comissão de Privacidade e Proteção de Dados da OAB-SP, por sua vez, a portaria editada no dia 12 último é necessária para acelerar o processo de retirada de publicações incentivando ataques contra ambiente escolar ou fazendo apologia e incitação a esses crimes ou a seus perpetradores, pois não houve uma colaboração maior por parte das redes sociais nesse sentido.

“E se a gente fosse seguir o rito normal, de provocar o Judiciário, isso demoraria um certo tempo, então talvez o intuito dessa portaria é ter uma colaboração mais célere por parte das redes sociais”, pontua.

Já na visão do advogado Philipe Cardoso, especializado em direito digital e pós-graduado em Lei Geral de Proteção de Dados (LGPD), o texto do MJSP “apresenta algumas medidas válidas para prevenir a disseminação de conteúdos ilícitos, como no caso da criação de banco de dados de conteúdos ilegais nos termos da própria portaria para ser compartilhado com as próprias plataformas de mídias sociais e com isso facilitar a identificação e remoção de conteúdos prejudiciais ou danosos nas redes sociais”.

Porém, acrescenta, em termos de efetividade, não estabelece “nada que seja substancialmente diferente do que já estava previsto na legislação brasileira, especialmente no Marco Civil da Internet, que é a principal legislação quando o quesito é estabelecer princípios, garantias, direitos e deveres para o uso da internet no Brasil”.

Ainda conforme o advogado, na portaria há “certos termos vagos e abertos à interpretação, o que pode gerar alguma ambiguidade em relação às limitações que podem ser impostas. Portanto, em certos momentos, a clareza da portaria dependerá do contexto e da aplicação específica que lhe for dada, o que pode representar um grande perigo a liberdade de expressão, principal direito fundamental que pode se opor aos termos da portaria como por exemplo ao ‘conteúdos flagrantemente ilícitos, prejudiciais ou danosos'”.

O texto não define, afirma, o que é exatamente esse tipo de conteúdo. É vago também, de acordo com o profissional, ao citar “‘eventual”, “outras medidas cabíveis”, “previsíveis” e principalmente no artigo 5º, que menciona que as plataformas de redes sociais devem compartilhar dados que permitam a identificação do usuário ou do terminal da conexão com a Internet daquele que disponibilizou o conteúdo”.

“No entanto, não fica claro se esse compartilhamento deve ser feito apenas em casos específicos ou de forma mais ampla, o que pode gerar dúvidas sobre a privacidade dos usuários considerando ainda a própria Lei Geral de Proteção de Dados”.

Twitter

Na 2ª feira (10.abr), dois dias antes da edição da portaria, o ministro da Justiça e Segurança Pública, Flávio Dino, fez uma reunião com representantres de redes sociais. Na ocasião, o Twitter demonstrou resistência a adotar ações mais incisivas contra conteúdos que incentivem ataques contra ambiente escolar ou façam apologia e incitação. As demais aceitaram bem a sugestões feitas pela pasta.

Após a reunião, Dino fez um apelo para que as plataformas adotassem ações mais incisivas, como exclusão de perfis e monitoramento de mensagens compartilhadas. Além disso, depois de serem publicadas as primeiras notícias sobre a resistência do Twitter, usuários, incluindo a organização Sleeping Giants e o influenciador Felipe Neto, fizeram um protesto na rede, no dia 11 de abril, usando a frase “Twitter apoia massacres” em publicações; ela chegou a primeiro lugar entre os assuntos do momento no Brasil.

“Desde que Elon Musk adquiriu a plataforma, o combate ao ódio foi esquecido, e agora estamos vivendo em um faroeste, onde não há qualquer lei. Se já era ruim antes e dizíamos que não tinha como piorar, hoje o bilionário provou que estávamos errados. Perfis dentro da plataforma que exaltam o nazismo e os massacres às escolas estão passeando livremente pela plataforma”, afirmou o Sleeping Giants na data. Musk, cofundador da Tesla e da SpaceX, oficializou a compra do Twitter em 27 de outubro do ano passado.

Ainda no dia 11 último, o Ministério Público Federal (MPF) requisitou que o diretor jurídico do Twitter no Brasil informasse quais providências estavam sendo adotadas para controlar conteúdos de incitação a violência e ataques a escolas. Posteriormente, no dia 12 de abril, ou seja, mesma datada da edição da portaria 351, o Twitter procurou o Ministério da Justiça para dizer que estava disposto a moderar os conteúdos que faz apologia a quem propõe massacres em escolas e mostraram medidas que passariam a tomar.

De acordo com o professor Carlos Affonso de Souza, da Uerj, o Twitter “é uma empresa em transformação”. “Foi adquirida pelo empresário Elon Musk. De certa maneira, rapidamente, a empresa de transformou e passou a atuar a partir da visão que o próprio Elon Musk compartilhou diversas vezes sobre uma liberdade de expressão praticamente absoluta. O próprio empresário, algumas vezes, se manifestou sobre a necessidade de que redes sociais removam menos conteúdo, deixando que conteúdos introvertidos, o empresário chegou a usar a palavra ‘ultrajantes’, ficassem no ar”, afirma o também diretor do ITS.

“Então, de certa maneira, o resultado que nós vemos do Twitter que é essa clara falha em moderar conteúdos que são danosos me parece que vem desse momento em que a empresa tem um novo dono, e essa situação de transformação fez com que as equipes que revisam segurança e moderação de conteúdo na plataforma também sofressem uma redução de pessoal bastante expressiva”.

Tudo isso, conforme o especialista, leva ao atual cenário de maior permissividade, por parte dela, com conteúdos que não deveriam estar numa rede social. Carlos relembra ainda que qualquer pessoa pode acessá-los, pois se trata de uma rede na superfície da internet. “E ali você encontraria situações de glorificação ao atiradores de Columbine e os outros perpetradores de situações de violências de escolas no Brasil, situações de planejamento de táticas de violência futuras, mensagens de apoio e estímulo a aqueles que pretenderiam fazer atos de violência”, ressalta.

“Então por tudo isso me parece que o Twitter falhou de maneira muito importante no seu dever de agir em relação à moderação de conteúdo, inclusive com base em suas próprias regras. Vale dizer que esse tipo de conteúdo ele não só é danoso, é ilícito, mas ele também é proibido pelas próprias regras do Twitter, que proíbe manifestação de violência e situações como essas que a gente tem visto, que é um ato de violência muito forte”.

Em novembro do ano passado, a rede reverteu uma política cujo objetivo era combater a desinformação relacionada à covid-19. No mesmo mês, Elon Musk reativou a conta do ex-presidente americano Donald Trump, a qual estava suspensa desde o início de janeiro de 2021, por “risco de incitação à violência”.

Investimento

Na avaliação do professor da Uerj e diretor do ITS, conteúdos incentivando ataques contra ambiente escolar ou fazendo apologia e incitação a esses crimes ou a seus perpetradores não trazem valor às plataformas digitais.

“Não há o que se discutir sobre liberdade de expressão com esse de conteúdo. Então, de certa de maneira, me parece aqui que a falha em moderar esse tipo de conteúdo vem muito mais de uma situação circunstancial, no que diz respeito ao Twitter, e em outras redes em que esse tipo de conteúdo aparece, em comunidade como os Discord, como em grupos do Telegram, estamos falando também de redes sociais ou aplicativos que de certa maneira ainda enfrentam as dores do crescimento no que diz respeito a moderação de conteúdo”, afirma o especialista.

“Ou, no caso do Telegram, falando de uma empresa que até pouco tempo atrás era recalcitrante até mesmo em responder a comunicações das instituições brasileiras”. Dessa forma, em sua visão, as plataformas não têm necessariamente interesse em manter esses conteúdos no ar. “O problema é que para tirá-los você precisa ter ferramentas e pessoas que atuem na moderação de conteúdo”, explica. E para isso, conforme o professor, a empresa precisa ter recursos financeiros.

“Então existe esse ponto importante, eu acho que esse talvez seja um ponto de divergência entre a visão do governo, que enxerga esses conteúdos como conteúdos que de maneira emergencial devam ser removidos, e do outro lado, plataformas que precisam fazer investimentos para que a moderação de conteúdo aconteça da maneira mais coerente, da maneira mais apropriada. E a gente vai saber que nisso determinadas plataformas podem não ter os recursos para assim fazer, não ter interesse em fazê-lo, como tem aqui alguns casos, então esse me parece que é um ponto de divergência mais significativo”, complementa.

Para o advogado Alexander Coelho, no que tange à publicação de conteúdos incentivando ataques contra ambiente escolar ou fazendo apologia e incitação, as preocupações do governo brasileiro e das redes sociais não divergem. “Eu diria que o governo está cumprindo o papel dele em estabelecer a ordem, principalmente nesse meio digital, e procurar a segurança, ele está tomando as medidas necessárias. O grande dilema que envolve toda essa discussão é que a gente tem que ter o equilíbrio entre esse monitoramento e um direito constitucional garantido que é a liberdade de expressão. Obviamente que tudo tem que passar por um bom senso”, pontua.

Também em suas palavras, “nada justifica a postagem de cunho ofensivo, incitando a violência, a gente não pode aceitar publicações desse nível com base na liberdade de expressão. Porque isso incita violência, uma onda de ódio, de vários ataques”. 

Pessoas mexendo em celulares (Adam Fagen/Flickr)

O advogado Philipe Cardoso, por sua vez, afirma que a preocupação do governo em relação à publicação dos conteúdos violentos nas plataformas “é legítima e de grande importância no combate à prática desses crimes, enquanto a rede social, em grande parte, irá priorizar sua própria ingerência em relação à forma como o tráfego de conteúdo ocorre dentro de sua plataforma”.

“Sendo assim, qualquer medida de controle, mesmo que com boas intenções por parte do governo, poderá mudar a maneira como a plataforma tem o conteúdo trafegando, o que pode gerar impacto em seu faturamento e principalmente em suas receitas com anunciantes e no tempo de retenção dos usuários. Por isso, consigo enxergar pontos de divergência entre os interesses do governo e da rede social”, complementa.

Melhorias

Segundo Carlos Affonso de Souza, ao longo do tempo, as redes vêm implementando melhorias em sua moderação dos conteúdos violentos, especialmente ferramentas de inteligência artifical. Entretanto, muitos imaginam que, com a IA, esses conteúdos deveriam ser excluídos automaticamente assim que publicados, mas isso só pode ser feito em alguns deles, como colagens de fotos e sequências de vídeos glorificando os sujeitos perpetradores de ataques em escolas.

“Então para esses conteúdos nós já temos ferramental que poderia tornar essa moderação de conteúdo automatizada. Outra coisa inteiramente diferente são situações que envolvem comentários que podem às vezes ser irônicos, críticos ou afirmativos de uma situação que possa levar ao ato de violência. Para isso a gente ainda depende de uma moderação humana. E esse me parece um ponto que tem sido pouco debatido”, acrescenta.

As plataformas precisam ter, afirma, não apenas aplicações de IA que funcionem bem para moderar conteúdo, mas também moderadores de conteúdos treinados, “que conheçam o contexto, que tenham passado tempo de treinamento nessas comunidades. Em especial, nos casos de violência na escola, surgem muito dessas comunidade chamadas TCC, que em inglês significa True Crime Community”.

+ Twitter passa a ter posts de até 10 mil caracteres

Nestas, nem tudo é ilícito, mas podem surgir materiais ilícitos. “Por isso é importante a gente ter moderadores treinados, conheçam as regras de comunicação, os códigos dessa comunidade, para separar o joio do trigo. Então esse é um desafio que me parece que a gente tem para a frente. Um aperfeiçoamento de ferramentas de inteligência artificial, para que possam remover esses conteúdos, até mesmo evitar serem publicados, e do outro lado, uma capacitação de moderadores, de pessoas humanas, que vão analisar esse tipo de conteúdo e evitar o espalhamento”, conclui o professor da Uerj.

Alexander Coelho avalia haver um esforço do governo, sociedade e empresários responsáveis pelas redes sociais para regular a disseminação de bullying, discursos de ódio e fake news nelas. “Ninguém quer que isso transito pelo nosso dia a dia. Inclusive, para as redes sociais, os patrocinadores, enfim, isso não é interessante para ninguém. O grande impasse que existe realmente é achar esse equilíbrio entre liberdade de expressão e o combate ao discurso do ódio. Esse é um debate muito amplo, que tem que ser ouvido a sociedade, o governo, não é uma coisa simples de ser resolvida”, diz o advogado.

De acordo com Philipe Cardoso, “praticamente todas as plataformas possuem termos de uso que proíbem a propagação de fake news, conteúdo violento, incitação ao ódio e racismo, afinal esse tipo de conteúdo não é vantajoso para a maioria delas, pois afasta os principais anunciantes que não querem ver suas marcas atreladas a este tipo de conteúdo”.

O advogado tem acompanhado constantemente a implementação de medidas por parte das redes sociais que visam a coibir esse tipo de informação. “Entretanto, é certo que muitas vezes uma solicitação de medida a ser adotada pela plataforma demora bastante, o que gera prejuízo e facilita a disseminação de informações falsas, fotos ou qualquer outro conteúdo ilegal. Portanto, agir com a maior rapidez possível é uma grande deficiência que vejo na maioria das plataformas de rede social nos dias de hoje”, acrescenta o profissional.

Fonte: SBT News

Tags: escolas, redes socisi, segurança, tecnologia