(Reproduçaõ / Internet)
O número de publicações com conteúdo violento punidos por violar as regras do Facebook aumentou quase 10 vezes em um ano, saindo de 3,4 milhões no primeiro trimestre de 2018 para 33,6 milhões entre janeiro e março de 2019. O balanço foi divulgado pela plataforma no documento Relatório de Transparência, que traz números relativos a providências tomadas em relação a posts de usuários a partir de suas regras internas.
Do total de 33,6 milhões conteúdos violentos punidos, 171 mil foram objeto de reclamações questionando a retirada e solicitando a retomada. Cerca de 70 mil mensagens foram republicadas, sendo 24 mil após o recebimento de reclamação e 45 mil por iniciativa própria do Facebook.
As sanções foram tomadas com base nos "Padrões da Comunidade", uma das normas internas da rede social, juntamente com os "Termos de Serviço" e as "Políticas de Privacidade". Os “Padrões da Comunidade” são formados por um conjunto de regras que definem o que é proibido e o que é passível de sanção pela companhia.
São vetados, por exemplo, posts com nudez, imagens de violência extrema, de suicídio ou auto-mutilação, vendas não autorizadas, mensagens de apoio a causas ou grupos terroristas e discurso de ódio. Com base nesses parâmetros, o Facebook monitora as publicações de seus usuários, bem como recebe denúncias dos usuários apontando violações às regras.
Entre as providências tomadas estão a cobertura de publicações com avisos (como indicando que se trata de conteúdo violento), a remoção de um conteúdo, a suspensão de uma conta ou até mesmo o repasse da denúncia para autoridades quando se tratar de um crime. No caso de notícias falsas, não há remoção, mas limitação do alcance no newsfeed dos usuários.
Além dos conteúdos violentos, a empresa também puniu mensagens com discursos de ódio. O número de publicações removidas, marcadas ou cujos autores tiveram as contas suspensas saiu de 2,5 milhões para 4 milhões na comparação entre o primeiro trimestre de 2018 e de 2019.
Os posts de propaganda terrorista punidos com medidas deste tipo também subiram no mesmo período: saíram e 1,9 milhão no primeiro trimestre de 2018 para 6,4 milhões nos primeiros três meses de 2019. Quase a totalidade das medidas foi resultante de iniciativa própria do Facebook a partir da filtragem que realiza dos conteúdos publicados.
Os relatórios de transparência são divulgados periodicamente pela plataforma. Eles estão disponíveis na rede.