Redes sociais

Facebook removeu 12 milhões de discursos de ódio no ano passado

Facebook removeu 12 milhões de discursos de ódio no ano passado

O Facebook anunciou, esta quinta-feira, que, no ano passado, removeu cerca de 12 milhões de conteúdos em grupos criados na rede social por violarem os padrões relativos ao discurso de incentivo ao ódio.

Em comunicado, a rede social refere que, em 2019, "removeu dos grupos cerca de 1,5 milhões de conteúdos por violarem as políticas sobre 'pessoas e organizações perigosas', 91% dos quais o Facebook encontrou proativamente".

Acrescenta também que foram removidos "cerca de 12 milhões de conteúdos em grupos por violarem os padrões relativos ao 'discurso de incentivo ao ódio'", dos quais 87% foram encontrados de forma proativa.

"As pessoas usam os grupos do Facebook com outras pessoas que partilham os mesmos interesses, mas mesmo que decidam fazer um grupo privado têm de utilizar as mesmas regras", salienta a tecnológica.

"Os padrões da comunidade aplicam-se aos grupos público e privados, e as próprias ferramentas de deteção são aplicáveis a ambos", aponta.

Isto significa que se alguém não denunciar um problema, a inteligência artificial pode detetar conteúdos potencialmente violentos e removê-los.

"Hoje, o Facebook partilha uma atualização do trabalho contínuo que tem sido desenvolvido para manter os grupos em segurança, incluindo um número de mudanças para reduzir a desinformação e conteúdos que possam ser prejudiciais à saúde", refere.

Quando se trata de grupos, o Facebook bloqueia um grupo inteiro se o mesmo quebrar as regras repetidamente ou se tiver sido criado com a intenção de violar os padrões da comunidade.

"Em 2019, o Facebook encerrou mais de um milhão de grupos por violarem essas políticas", revela a rede social.

O Facebook está a tomar medidas ao impedir pessoas que repetidamente violam os padrões da comunidade de criarem novos grupos.

"A política de reincidência existente proíbe o administrador de um grupo de criar outro grupo semelhante àquele que o Facebook removeu. Portanto, administradores e moderadores de grupos que foram eliminados devido a violações dos padrões não podem criar nenhum grupo por determinado período de tempo", salienta.

"Para os membros que têm alguma violação dos padrões da comunidade num grupo, as suas publicações nesse grupo precisam agora de uma aprovação nos 30 dias seguintes. Isto impede a sua publicação de ser vista pelos outros membros do grupo até que o administrador ou moderador a aprove", prossegue.

"Se os administradores ou moderadores aprovarem repetidamente publicações que violem os padrões da comunidade, o grupo será removido", acrescenta.

"Nas próximas semanas, o Facebook vai começar a arquivar grupos que estão sem administrador há algum tempo", avança ainda a rede social.

"Portanto, quando um administrador único decide afastar-se, pode convidar membros para se tornarem administradores. Caso nenhum dos membros convidados aceite, o próprio Facebook sugere o papel de administrador a membros que possam estar interessados. Se ninguém aceitar, o grupo será arquivado", explica.

Relativamente aos grupos sobre saúde, estes deixaram de ser recomendados de forma a dar prioridade a informação oficial das entidades de saúde públicas.

Outras Notícias