Avanços tecnológicos assustam mas não são bicho papão. O potencial absoluto da Inteligência Artificial ainda é desconhecido mas a importância jornalística sai reforçada.
Corpo do artigo
O momento é especialmente desafiante no que toca à produção e ao consumo de informação – é certo – mas “não será o fim do Mundo”, garantem os estudiosos. Os algoritmos cada vez mais aprimorados, a temida Inteligência Artificial (IA) e a loucura das redes sociais complicam a missão do jornalismo, mas também lhe adicionam valor. Francisco Conrado, investigador do Centro de Estudos de Comunicação e Sociedade da U. Minho, não tem dúvidas. “O papel do jornalista enquanto mediador e ‘gatekeeper’ [responsável pela seleção do que é notícia] nunca foi tão valioso. É um dos pilares mais importantes para mantermos uma sociedade livre”.
O especialista em redes sociais e notícias falsas prefere colocar de lado o pessimismo. “Consigo antever todos os problemas que podem surgir destas ferramentas”, reconheceu, notando que, nesta fase, “só temos uma noção” de como os algoritmos e a IA podem ter efeitos no trabalho jornalístico. “Ainda não sabemos bem como lidar com eles. Mas este choque já aconteceu antes, com o advento da internet e do jornalismo mais participativo”, notou.
Há quem atribua culpa à tecnologia enquanto “mal da nossa era”, mas segundo recordou Henrique Santos, professor da Escola de Engenharia da Universidade do Minho, as fases de estranheza e adaptação aconteceram “em todas as grandes revoluções tecnológicas”. Ainda assim, o especialista em cibersegurança não nega que atualmente existam “elementos perigosos”. “Estamos a falar da chamada Inteligência Artificial Generativa, que é a capacidade de gerar notícias ou elementos media, vozes e imagens, a partir de algoritmos que analisam padrões e comportamentos. Isto acarreta muitas ameaças, uma delas é o ‘phishing’ [ver estratégias abaixo]”, alertou. “É muito fácil levar alguém a fazer aquilo que, em princípio, não faria. Mas há aqui outros perigos, nomeadamente o da desinformação, associada à manipulação da opinião pública”.
A área multimédia é particularmente sensível e “ainda está por acautelar”. Fotografias falsas que resultam em casos de chantagem, auroras boreais sublimes que, afinal, não existiram ou telefonemas gerados com IA utilizando a voz do chefe de Estado americano, Joe Biden, são apenas alguns exemplos. “É algo que vamos ter de aprender a enfrentar. Temos de criar ferramentas que nos ajudem a detetar esse tipo de manipulação”, referiu Francisco Conrado, dando um exemplo simples refente às fotografias.
“Algo muito fácil é usar a própria ferramenta de pesquisa de imagens do Google, já que várias fotos que foram manipuladas são antigas, andam a circular há anos na internet”. O Instituto de Tecnologia de Massachusetts (MIT) desenvolveu uma ferramenta chamada “PhotoGuard”, atualmente em fase de testes, “que pretende precisamente avaliar se as imagens têm indícios de manipulação”. “Ainda estamos um pouco no escuro”, mas começam a surgir ferramentas de combate.
Numa lógica de tranquilização face às ameaças, Henrique Santos recordou que "os algoritmos não estão a inventar nada”, limitando-se a encontrar padrões em toneladas de informação disponibilizadas online. O mais surpreendente é a rapidez com que o fazem, escapando “à nossa perceção habitual de tempo”. “É como dizer a alguém que um pequeno processador de telemóvel consegue fazer 40 milhões de operações por segundo. Quase não dá para acreditar”.
"Phishing"
Atualizar sistemas
Um dos primeiros mandamentos contra a técnica de fraude eletrónica que visa roubar dados confidenciais é a frequente atualização dos sistemas.
Desconfiar
Ativar o modo alerta. “Os meios de comunicação foram feitos para comunicarmos, não para estarmos sempre a receber desafios”.
Partilhar
Alertar centros de cibersegurança de problemas. “Temos de nos habituar a falar com eles tal como nos habituámos, na saúde, a ligar para o 112”.
Aprovado regulamento europeu
A Comissão Europeia aprovou recentemente o Regulamento sobre Inteligência Artificial. As instituições têm até dia 21 de abril de 2025 para se adaptarem às regras. Para Henrique Santos, os sinais dados são muito positivos e é preciso "desmistificar" as regras.
"Na altura do regulamento europeu para a privacidade, durante um ano, diziam, no nosso país, que ia acabar o Mundo, que as empresas iam fechar", recordou o investigador. Questionado durante várias palestras em que participou sobre o tema, defendeu que "se alguma empresa tivesse de fechar por causa do regulamento, nunca devia ter aberto".
"Aqui é exatamente igual. Se alguma empresa, neste momento, está a usar o ChatGPT ou equivalente para fazer algo que fere as regras, é porque nunca o deveria ter feito", notou, garantindo que a sociedade precisa de ter "balizas".