Pesquisou o próprio nome e ChatGPT identificou-o falsamente como homicida dos filhos
A OpenAI está a enfrentar uma queixa por causa do seu chatbot, o ChatGPT, que terá inventado uma "história de terror" ao descrever falsamente um homem norueguês como tendo assassinado os seus filhos, disse um grupo de campanha de privacidade esta quinta-feira.
Corpo do artigo
"O muito popular chatbot da OpenAI, o ChatGPT, fornece regularmente informações falsas sobre as pessoas sem oferecer qualquer forma de as corrigir", disse a NOYB – European Centre for Digital Rights, de Viena, em comunicado. O ChatGPT "acusou falsamente pessoas de corrupção, abuso de menores - ou mesmo assassinato".
Em causa está o utilizador norueguês Arve Hjalmar Holmen, que "foi confrontado com uma história de terror inventada" quando quis descobrir se o ChatGPT tinha alguma informação sobre ele. O chatbot apresentou-o como um criminoso condenado que assassinou dois dos seus filhos e tentou assassinar o seu terceiro filho. "Para piorar a situação, a história falsa incluía elementos reais da sua vida pessoal", disse a Noyb.
"Alguns pensam que 'não há fumo sem fogo'. O facto de alguém conseguir ler isto e acreditar que é verdade é o que mais me assusta", afirmou, por sua vez, Hjalmar Holmen.
Na queixa apresentada à Autoridade Norueguesa de Proteção de Dados (Datatilsynet), a Noyb quer que a agência ordene à OpenAI "que exclua o resultado difamatório e ajuste o seu modelo para eliminar resultados imprecisos", além de impor uma multa.
O advogado de proteção de dados da Noyb, Joakim Soederberg, disse que as regras de proteção de dados da União Europeia estipulam que os dados pessoais devem ser precisos. "E se não for, os utilizadores têm o direito de o alterar para refletir a verdade", disse, acrescentando que mostrar aos utilizadores do ChatGPT um "pequeno" aviso de que o chatbot pode cometer erros "claramente não é suficiente".
Devido a uma atualização, o ChatGPT agora também pesquisa informações na internet e Hjalmar Holmen já não é identificado como assassino. No entanto, as informações falsas ainda permanecem no sistema.
A gigante tecnológica norte-americana enfrentou uma série de queixas de que o ChatGPT fornece informações falsas, o que pode prejudicar a reputação das pessoas. A própria Noyb já apresentou uma queixa contra o ChatGPT no ano passado na Áustria, alegando que a ferramenta de inteligência artificial (IA) inventou respostas erradas que a OpenAI não consegue corrigir.
As "alucinações" são um dos principais problemas que os informáticos estão a tentar resolver quando se trata de IA generativa e que fazem que os chatbots apresentem informações falsas como se fossem factos. No início deste ano, a Apple suspendeu a sua ferramenta de resumo de notícias Apple Intelligence no Reino Unido depois de esta ter apresentado manchetes falsas como notícias reais. Já a Gemini, da Google, sugeriu, no ano passado, usar cola no queijo da pizza e afirmou que os geólogos recomendam que os humanos comam uma pedra por dia.