
Sam Altman é o CEO da Open AI
Foto: Yuichi YAMAZAKI / AFP
Especialistas em desinformação da Católica e do ISCTE, contactados pela agência Lusa, manifestaram-se preocupados com a capacidade da nova aplicação da OpenAI gerar vídeos hiper-realistas que manipulem a realidade através de indicações em texto.
Corpo do artigo
A OpenAI, empresa responsável pela criação do ChatGPT, lançou este mês o Sora 2, uma aplicação que cria vídeos realistas com recurso a inteligência artificial (IA), a partir de descrições escritas.
Lançada no início do mês, a nova ferramenta conjuga a criação de vídeo com IA e uma rede social, que permite aos utilizadores publicar os vídeos que criam com a tecnologia e partilhá-los diretamente em plataformas concorrentes como o TikTok e Instagram.
Contactado pela Lusa, o académico e especialista em desinformação João Santos Pereira, da Universidade Católica Portuguesa, começa por explicar que a aplicação tem um potencial muito superior às versões anteriores "porque os vídeos são bastante mais realistas, respeitam mais as leis da física e as texturas são mais fotorrealistas".
"Isto significa que é cada vez mais difícil a distinção entre o que é real e o que é fabricado. A dissipação da fronteira entre o real e o artificial leva a conclusões que podem ser potencialmente muito perigosas", afirma o João Santos Pereira.
Regulação difícil
O académico explica que a grande utilização destas tecnologias por agentes políticos e de notícias pode ser muito malicioso, sobretudo porque a IA "diminuiu as barreiras de entrada" no mundo virtual.
Questionado sobre o papel das grandes plataformas na regulação destes conteúdos, João Santos Pereira acredita haver "uma boa vontade, havendo uma preocupação para evitar que a internet se transforme num faroeste".
Apesar disso, "é muito complicado esta regulação face à evolução da IA, porque os filtros de deteção automáticos, os humanos e aspetos regulatórios estão sempre um ou dois passos atrás das ondas tecnológicas".
Mais casos com fotos e vídeos reais
À Lusa, a investigadora do ISCTE Ana Pinto Martinho afirma que a nova app já cria vídeos de IA "muito bons, a que as pessoas podem aceder facilmente", o que "multiplica a possibilidade de ter conteúdos desinformativos".
"Quando se fala em 'feeds' muito viciantes, o que acontece é que esse tipo de vídeos apela a um lado mais emocional, táticas para manter as pessoas o maior tempo possível ligadas aos seus 'feeds'", explica a investigadora.
Por sua vez, em declarações à Lusa, também o investigador universitário do ISCTE José Moreno alerta que "seria impensável dizer que um motor de geração de vídeos tão hiper-realista como o Sora 2 não pode contribuir para a desinformação".
O investigador explica que "são mais frequentes os casos de desinformação que usam fotos ou vídeos reais e os descontextualizam para propagar uma narrativa do que os casos de desinformação que têm na sua base um vídeo ou imagem gerados por IA".
Além disso, José Moreno defende que "a maior parte das pessoas ainda não estão suficientemente familiarizadas com estas tecnologias inovadoras".
Para o especialista, o risco das pessoas acreditarem em desinformação é maior naqueles "que estejam menos conscientes da própria existência dos riscos da IA, seja porque não sabem como é que a IA os pode enganar, seja porque já estão convencidos de uma verdade que a IA, ou qualquer outra tecnologia, não terá dificuldade em lhes confirmar", explica.
Desta forma, é fundamental "perceber como é que os algoritmos favorecem os conteúdos emocionais e polarizadores, entre os quais a desinformação", bem como desconfiar sempre das informações mais simples que parecem confirmar determinadas crenças.
Esta semana, uma análise da organização de combate à desinformação NewsGuard revelou que em 80% dos testes, a aplicação produziu vídeos falsos ou enganadores relacionados com notícias importantes, como o ato eleitoral da Moldova ou questões sobre a política de imigração dos Estados Unidos da América (EUA).
O lançamento da aplicação Sora 2 começou pelos EUA e pelo Canadá, no sistema iOS.
