Donald Trump, Elon Musk e Taylor Swift são as figuras públicas que mais protagonizaram "deepfakes" em 2024, uma prática que manipula a imagem e a voz com ferramentas de inteligência artificial e que tem proliferado na internet e nas redes sociais apesar dos riscos que acarreta para a democracia.
Corpo do artigo
Os deepfakes são um tipo de conteúdo audiovisual manipulado que mostra imagens falsas, geralmente simulando a voz e a aparência de outras pessoas. No entanto, têm a particularidade de estas imagens parecerem reais, uma vez que são geradas utilizando técnicas avançadas de aprendizagem profunda e de Inteligência Artificial (IA).
Embora inicialmente fossem um formato adequado apenas para programadores, são agora um tipo de vídeo que está disponível para qualquer pessoa graças aos avanços nas tecnologias de clonagem de voz e sincronização labial de código aberto.
Como explica a Kapwing, uma plataforma de criação de vídeo, os sistema obtém a voz de uma pessoa a partir de uma pequena amostra de áudio de 10 a 15 segundos. Em seguida, analisa e aplica as caraterísticas vocais a um modelo subjacente capaz de gerar voz a partir de texto.
A IA para sincronização de dados, por sua vez, faz corresponder os lábios das imagens da pessoa que está a ser imitada aos sons produzidos no ficheiro de áudio. Neste sentido, como detalhado pela plataforma, com tecnologias como as mencionadas acima, um "gémeo" IA pode ser criado com apenas dez segundos de filmagem inicial.
Estas tecnologias permitem a manipulação de um vídeo de forma realista e num curto espaço de tempo. Como explica a Kapwing, com estas tecnologias, é possível criar um gémeo de IA com apenas dez segundos de filmagem inicial, de acordo com a investigação realizada sobre as possibilidades oferecidas pelo deepfake e os riscos que esta tecnologia representa para a falsificação de identidade ou para a divulgação de notícias falsas.
As celebridades com mais "deepfakes"
Devido à proliferação destas tecnologias, os vídeos "deepfake" são atualmente um conteúdo comum na internet e nas redes sociais, chegando mesmo a tornar-se viral.
Personalidades públicas são frequentemente protagonistas destes "deepfakes" quando o objetivo é “influenciar a opinião pública, permitir atividades fraudulentas ou burlas, ou gerar lucro”. Mas não é qualquer um que serve.
De acordo com os dados recolhidos pela Kapwing, depois de analisar mensagens de texto para vídeo num popular canal de Discord para gerar vídeos de IA, o ex-presidente dos EUA Donald Trump, o proprietário do X (antigo Twitter) Elon Musk e a cantora e compositora Taylor Swift são as figuras públicas dos EUA mais falsificadas até agora em 2024.
Especificamente, a plataforma contabilizou 12.384 pedidos de vídeos "deepfake" relacionados com Trump em 2024, outros 9.544 pedidos foram vinculados a Musk e 8.202 a Taylor Swift. Estas três personalidades foram personificadas com mais frequência do que qualquer outra celebridade para criar vídeos falsificados.
De seguida, na lista, está o atual presidente dos Estados Unidos, Joe Biden, que também foi uma das personalidades mais falsificadas, com 7.956 pedidos. Atores como Tom Cruise, Dwayne Johnson e Will Smith também fazem parte desta lista.
Também houve pedidos de vídeos "deepfake" relacionados com desportistas, como Cristiano Ronaldo e Leo Messi e o basquetebolista Michael Jordan. O mesmo aconteceu com cantores como Beyoncé e personalidades da tecnologia, como o ceo da Meta, Mark Zuckerberg.
Perigos da imitação de "deepfake"
Embora grande parte deste conteúdo seja criado e publicado online para entretenimento, como forma de comédia, por exemplo, personificando personalidades famosas para as fazer contar uma piada, também pode representar um risco ou criar confusão entre os utilizadores devido ao realismo de alguns “deepfakes”.
Um exemplo disto é um vídeo falso de um discurso de Joe Biden depois de este ter retirado a sua candidatura às próximas eleições presidenciais dos eua. Nas redes sociais, alguns utilizadores podem acreditar que se trata de um vídeo real e confiar que a informação que ouviram da boca do presidente dos eua, mesmo que seja através de um vídeo, é verdadeira.
Para além de incentivarem o consumo de “fake news”, estes “deepfakes” são também uma ferramenta para os cibercriminosos, que os podem utilizar como método para defraudar os utilizadores, aproveitando-se da confiança depositada em figuras públicas.
Deteção de "deepfakes" modernos
Com tudo isto, a Kapwing apontou algumas diretrizes a ter em conta para detetar vídeos "deepfake" feitos com tecnologias modernas. A chave é prestar atenção tanto ao áudio quanto ao vídeo, com ênfase na voz e nos lábios.
Isto porque um dos sinais de um "deepfake" é o facto de o movimento dos lábios e dos dentes ser “inconsistente”. Apesar de a tecnologia de sincronização labial estar em constante evolução, o processo dá muitas vezes origem a falhas, como uma boca desfocada ou lábios anormalmente cor-de-rosa. Do mesmo modo, os dentes aparecem muitas vezes demasiado brancos e registam movimentos irrealistas quando estão visíveis, uma vez que se trata de uma tarefa complexa para a IA.
Na mesma linha, os "deepfakes" também mostram frequentemente movimentos e gestos corporais não naturais. Como a empresa de tecnologia explicou, isto acontece porque, enquanto os movimentos dos lábios e da boca são rectificados para parecerem reais, os gestos corporais não são modificados.
Isto traduz-se em sintomas como encolher os ombros, movimentos da cabeça ou gestos com as mãos que não correspondem ao que está a ser narrado e que são utilizados para enfatizar um determinado ponto. Por exemplo, um movimento errado pode ser o facto de uma pessoa desviar o olhar do orador enquanto fala. Da mesma forma, a falta de pestanejar é também uma indicação de conteúdo criado por ia.
Em termos de voz, como os "deepfakes" utilizam vozes geradas por ia, tendem a soar mais monótonas e menos expressivas do que as de um ser humano real. Este facto é notório em questões como os padrões de respiração.
“as conclusões do nosso estudo mostram claramente que as falsificações profundas de vídeo são agora comuns, tal como as ferramentas que podem ser utilizadas para as criar. Estas ferramentas têm de ser disponibilizadas de forma segura”, afirmou o cofundador da Kapwing, Eric Lu, referindo ainda que esperam que outros fornecedores ‘também tornem claro quando o conteúdo está a ser alterado e tomem medidas para garantir a segurança’.
