O Supremo Tribunal Federal (STF) brasileiro decidiu, esta quinta-feira, ampliar as obrigações das redes sociais e outras plataformas digitais em relação às publicações dos utilizadores. A medida visa tornar mais rápida a eliminação de conteúdos ilegais como ataques à democracia, terrorismo e discriminação.
Corpo do artigo
Por oito votos contra três, os juízes do STF decidiram que as empresas deverão retirar publicações ilegais após receberem uma notificação extrajudicial, ou seja, quando houver um pedido feito pela vítima ou o seu advogado diretamente à plataforma, sem uma ordem judicial. As plataformas não serão responsabilizadas por publicações isoladas, mas por “falha sistémica”, que é quando não atuam “de forma responsável, transparente e cautelosa” para moderar o conteúdo. É incerto, por enquanto, que órgão judicial vai analisar se houve uma “falha sistémica”.
Os crimes listados que terão de ser removidos são ataques à democracia e ao Estado Democrático de Direito; terrorismo; incitamento ao suicídio; discriminação racista, religiosa, homofobia, transfobia ou xenofobia; violência contra mulheres; crimes sexuais contra pessoas vulneráveis e pornografia infantil; e tráfico de pessoas.
As empresas serão ainda automaticamente responsabilizadas no caso de conteúdos pagos, não dependendo de aviso, uma vez que lucram diretamente nesses casos. Além disso, as plataformas terão de atuar para retirar conteúdos ilícitos distribuídos por robôs e contas falsas.
Já as publicações que contenham injúria, calúnia ou difamação só vão precisar de ser removidas após uma ordem judicial. As tecnológicas poderão, contudo, retirar o conteúdo de forma voluntária depois de receberem uma notificação extrajudicial.
As redes sociais deverão estabelecer regras, criando sistemas próprios para receberem denúncias de utilizadores e não utilizadores e para processarem tais notificações. São obrigadas ainda a fazer relatórios anuais de transparência sobre as remoções.
E-mail, Messenger e WhatsApp escapam
As plataformas de e-mail, de reuniões fechadas de vídeo ou voz e aplicações de mensagens instantâneas não são abrangidas pela mudança, necessitando haver uma decisão judicial. As tecnológicas vão precisar também de ter sede e representante legal no Brasil, com contacto acessível para responderem em caso de processos.
Entre agosto e outubro de 2024, o X (antigo Twitter) chegou a ficar bloqueado no país após a rede social de Elon Musk ter encerrado o escritório brasileiro que representava a rede e não ter indicado um representante legal, deixando de cumprir ordens judiciais. O STF suspendeu, em fevereiro deste ano, a plataforma de vídeos canadiano-americana Rumble, já que o site usado principalmente pela extrema-direita não tem uma representação no Brasil.
“O tribunal aguardou por um período bastante razoável a sobrevinda de legislação por parte do Legislativo e, não ocorrendo, chegou a hora de decidirmos esta matéria”, argumentou o presidente do Supremo, Luís Roberto Barroso. O órgão judicial instou ainda que o Congresso elabore uma “legislação capaz de sanar as deficiências do atual regime quanto à proteção de direitos fundamentais”. Por enquanto, fica a valer a decisão desta quinta-feira do STF.