O naturalista mais conhecido do Mundo, David Attenborough, viu a sua voz clonada - e mal utilizada - pela Inteligência Artificial (IA). É mais uma das celebridades visadas pela clonagem da voz para fins indevidos, uma ameaça que paira sobre todos.
Corpo do artigo
A BBC revelou que vários sites e canais do YouTube estão a utilizar a inteligência artificial para clonar a voz de David Attenborough, o britânico que dá voz a programas televisivos sobre história natural, e levá-lo a dizer coisas - sobre a Rússia, sobre as eleições nos EUA - que ele certamente nunca diria.
Não é a primeira vez que isto acontece com uma celebridade. Scarlett Johansson recusou-se a licenciar a sua voz ao ChatGPT e acusou a empresa de a criarem na mesma, numa personagem chamada Sky. O criador do ChatGPT, OpenAI, disse que Sky era “uma atriz profissional diferente que usava a sua própria voz natural”, mas retirou a voz “por respeito à Sra. Johansson”. Por outro lado, os advogados continuam a discutir, utilizando precedentes que são anteriores à existência da IA em várias décadas, ou seja, com uma mão atada atrás das costas.
A geração de vozes por IA levantou bandeiras vermelhas devido ao potencial de burla - o risco de, em breve, alguém ser capaz de extrair a voz do seu filho do TikTok, criar uma gravação de reféns credível e fazer com que esvaziasse a sua conta bancária, antes de se aperceber que o seu filho estava no quarto o tempo todo, exemplifica Zoe Williams, num artigo de opinião publicado no jornal britânico "The Guardian". "A tecnologia desligada dos valores destrói esses valores, mas com ou sem valores também se pode destruir a si própria".
Há um banco de vozes que avisa quais são clonadas
O Starling Bank, um banco de crédito apenas online, afirmou que os burlões são capazes de utilizar a IA para reproduzir a voz de alguém a partir de apenas três segundos de áudio encontrados, por exemplo, num vídeo que a pessoa publicou na internet. Os burlões podem depois identificar os amigos e familiares da pessoa e utilizar a voz clonada pela IA para encenar uma chamada telefónica para pedir dinheiro. Estes tipo de burlas têm o potencial de “apanhar milhões de pessoas”, afirma o banco britânico num comunicado de Imprensa.
De acordo com um estudo com mais de três mil adultos que o banco realizou com a Mortar Research no mês passado, mais de um quarto dos entrevistados disse ter sido alvo de um golpe de clonagem de voz de IA nos últimos 12 meses.
O inquérito também revelou que 46% dos inquiridos não sabiam da existência deste tipo de burla e que 8% enviariam o montante solicitado por um amigo ou familiar, mesmo que a chamada lhes parecesse estranha.
“As pessoas publicam regularmente conteúdos online que contêm gravações da sua voz, sem nunca imaginarem que isso as torna mais vulneráveis aos burlões”, refere Lisa Grahame, diretora de segurança da informação do Starling Bank, no documento, citado pela CNN.
O banco está a encorajar as pessoas a acordarem uma “frase segura” com os seus entes queridos - uma frase simples e aleatória que seja fácil de lembrar e diferente das suas outras palavras-passe - que possa ser utilizada para verificar a sua identidade por telefone.
O credor desaconselha a partilha da frase de segurança por texto, o que poderia facilitar a descoberta por parte de burlões, mas, se for partilhada desta forma, a mensagem deve ser apagada assim que a outra pessoa a tiver visto.
À medida que a IA se torna cada vez mais hábil a imitar vozes humanas, aumentam as preocupações sobre o seu potencial para prejudicar as pessoas, por exemplo, ajudando os criminosos a aceder às suas contas bancárias e a espalhar desinformação.
No início deste ano, a OpenAI, fabricante do chatbot de IA generativa ChatGPT, revelou a sua ferramenta de replicação de voz, Voice Engine, mas não a disponibilizou ao público nessa fase, citando o “potencial de utilização indevida de voz sintética”.