Quase 18 meses depois de uma investigação ter revelado que as crianças que usam o TikTok correm o risco de ser atraídas para um "buraco negro" tóxico de conteúdos relacionados com a depressão e o suicídio, a empresa não reconheceu o problema, nem fez nada para o resolver. A denúncia é da Amnistia Internacional.
Corpo do artigo
"O TikTok não está a abordar os graves riscos de danos à saúde mental e física dos jovens utilizadores, quase 18 meses depois de a Amnistia Internacional ter destacado esses riscos num relatório inovador", refere a organização em comunicado.
Em 2023, a investigação usou contas para simular adolescentes de 13 anos online e descobriu que, 20 minutos após criar uma conta e sinalizar interesse em saúde mental, mais de metade dos vídeos no feed "Para ti" do TikTok estavam relacionados com problemas de saúde mental.
"Vários desses vídeos recomendados numa única hora romantizavam, normalizavam ou encorajavam o suicídio", recorda a Amnistia Internacional (AI) que recentemente decidiu perguntar ao TikTok quais as mudanças implementadas desde então.
A resposta da empresa "enumerou medidas de bem-estar já conhecidas, a maioria das quais já estavam em vigor quando a investigação foi realizada, e não reconheceu o problema do 'buraco negro' da aplicação", declara a AI, acrescentando que "também não apresentou provas de quaisquer novas medidas específicas para o resolver".
No comunicado, a AI refere ainda que a avaliação de risco do TikTok para 2024, ao abrigo da Lei dos Serviços Digitais (DSA) da União Europeia, reconhece que “certos tipos de conteúdo concentrado, embora não violem as Diretrizes da Comunidade TikTok, podem causar danos ao reforçar inadvertidamente uma experiência pessoal negativa para alguns espectadores". Por exemplo, acrescenta, "pode haver um impacto no bem-estar mental, particularmente para os utilizadores mais jovens, associado a conteúdo concentrado relacionado com dietas extremas e conteúdo relacionado com a imagem corporal”.
Medidas de mitigação já estavam em vigor
Na mesma secção da avaliação de risco, o TikTok enumera medidas de mitigação, tais como a aplicação proativa das suas Diretrizes da Comunidade, a manutenção de padrões de elegibilidade de conteúdo e a aplicação de “técnicas de dispersão” ao feed “Para ti”. Destaca ainda as ferramentas para os utilizadores, incluindo opções de filtragem e uma função de atualização para redefinir o feed.
No entanto, contrapõe o comunicado, "todas estas medidas já estavam em vigor em 2023, quando a Amnistia Internacional conduziu a sua investigação e demonstrou que os jovens utilizadores estavam expostos a riscos sistémicos na plataforma".
A Amnistia Internacional acrescenta que a resposta do TikTok às ultimas perguntas sobre o que está a fazer para tornar a aplicação mais segura para os mais jovens revela que "sete anos após se tornar disponível internacionalmente, a empresa ainda está à espera que um fornecedor externo conclua uma avaliação do impacto dos direitos da criança na plataforma, uma responsabilidade fundamental ao abrigo das normas internacionais de direitos humanos para as empresas".
A organização de defesa dos direitos humanos tem em curso uma petição a exortar a empresa TikTok a tornar a plataforma mais segura para as crianças.