
IA a imitar humanos preocupa académicos e ativistas
Foto: Patrick T. Fallon/AFP
Investigadores internacionais alertam para agentes artificiais que imitam humanos, criam consensos falsos e podem interferir em eleições.
Os avisos sobre os riscos da inteligência artificial (IA) para o espaço público tornaram-se mais concretos com o alerta de um consórcio internacional de especialistas. Investigadores em IA, desinformação e ciências sociais defendem que enxames de bots inteligentes, difíceis de distinguir de utilizadores reais, podem manipular opiniões, criar falsos consensos e enfraquecer processos eleitorais. O aviso, publicado na revista científica "Science", inclui nomes como Maria Ressa, Nobel da Paz, e académicos de Berkeley, Harvard, Oxford, Cambridge e Yale. Em causa está a possibilidade de líderes políticos ou atores mal-intencionados lançarem milhares de agentes de IA que se fazem passar por pessoas reais online, potencialmente a tempo das eleições presidenciais norte-americanas de 2028.
Os especialistas avisam que estes sistemas são capazes de aprender comportamentos e adaptar mensagens ao longo do tempo. "Está a emergir uma ameaça disruptiva: enxames de agentes de IA colaborativos e maliciosos. Estes sistemas são capazes de coordenar-se autonomamente, infiltrar-se em comunidades e fabricar consensos de forma eficiente. Ao imitar de forma adaptativa as dinâmicas sociais humanas, ameaçam a democracia", afirmam os investigadores.
Imitação humana
A ameaça é reforçada pelos avanços na capacidade de a inteligência artificial captar o tom das conversas e o conteúdo do discurso, imitando dinâmicas humanas, desde o uso de gíria adequada até à publicação irregular para evitar deteção. A evolução da IA "agente", capaz de planear e coordenar ações de forma autónoma, aumenta a eficácia destas operações.
Daniel Thilo Schroeder, investigador do instituto multidisciplinar Sintef, em Oslo, descreve o fenómeno como alarmante: "É simplesmente assustador como é fácil programar estas coisas e ter pequenos exércitos de bots capazes de navegar nas redes sociais, email e utilizar estas ferramentas."
"Se estes bots começarem a evoluir como um coletivo e a trocar informação para resolver um problema - neste caso um objetivo malicioso, ou seja, analisar uma comunidade e encontrar um ponto fraco - a coordenação aumentará a sua precisão e eficiência. Esta é uma ameaça muito séria que prevemos que se materialize", nota Jonas Kunst, professor de comunicação na BI Norwegian Business School.
Falsa neutralidade
Nem todos os especialistas partilham do mesmo grau de alarme. Inga Trauthig, perita em tecnologia de propaganda, admite que a adoção de IA avançadas pode ser limitada: "A maioria dos propagandistas políticos com quem falo continua a usar tecnologias antigas e não está na vanguarda destas ferramentas." Por sua vez, Michael Wooldridge, professor de fundamentos de IA em Oxford, considera "totalmente plausível que atores mal-intencionados tentem mobilizar exércitos virtuais de agentes de IA para perturbar eleições e manipular a opinião pública, direcionando, por exemplo, grandes números de indivíduos nas redes sociais e outros meios eletrónicos". "É tecnologicamente viável. A tecnologia tem melhorado progressivamente e tornou-se muito mais acessível", acrescenta.
O fenómeno é visível em Taiwan. Puma Shen, deputado do Partido Democrático Progressista, sublinha que a estratégia de bots "não está a dizer que a China é excelente, mas a (encorajar-te) a ser neutro". "Isto é muito perigoso, porque depois pensas que pessoas como eu são radicais", notou. Dessa forma, bots têm criado sobrecarga informativa e incentivado uma falsa neutralidade entre os jovens.
Os especialistas defendem uma resposta global, com ferramentas de deteção de enxames e conteúdos marcados com a sua origem. "Aqueles que estão ao serviço de forças autoritárias estão a minar os processos eleitorais, a militarizar a IA e a usar as forças sociais contra nós", concluiu Audrey Tang, ministra digital de Taiwan.

