Empresa de Musk apaga publicações “inadequadas” após reclamações por mensagens antissemitas
A xAI, a empresa de Inteligência Artificial criada pelo multimilionário Elon Musk, anunciou esta quarta-feira a eliminação de várias publicações “inadequadas” do "chatbot" Grok, após ter recebido reclamações sobre a propagação de conteúdos e comentários antissemitas.
Corpo do artigo
“Estamos cientes das publicações recentes do Grok e estamos a trabalhar ativamente para eliminar as publicações inadequadas”, referiu a xAI, mas sem mencionar, em pormenor, o conteúdo das mensagens eliminadas na ferramenta alimentada por Inteligência Artificial.
Sabe-se, contudo, que no "chatbot" (programa concebido para simular uma conversa com utilizadores humanos, interagindo e respondendo a perguntas) houve publicações em que foi elogiado o antigo líder nazi Adolf Hitler.
A empresa indicou que, após analisar a natureza das publicações, “tomou medidas para proibir o discurso de ódio antes que o Grok publique no X”, a rede social também detida por Elon Musk.
“A xAI treina apenas na busca da verdade e, graças aos milhões de utilizadores no X, podemos identificar rapidamente e atualizar o modelo onde o treino pode ser melhorado”, referiu a xAI.
Capturas das publicações eliminadas mostram como o Grok teria elogiado as políticas de Hitler, insinuado que pessoas de origem judaica eram mais propensas a propagar mensagens de ódio online e expressado um aparente apoio às práticas do Holocausto.
“O que estamos a ver agora nas publicações do Grok é simplesmente irresponsável, perigoso e antissemita. Este impulso à retórica extremista só servirá para amplificar e encorajar o antissemitismo que já está em ascensão no X e em muitas outras plataformas”, reagiu a Liga Antidifamação (ADL, na sigla em inglês), através de uma mensagem publicada na rede social X.
Segundo a ADL, “a última versão do modelo Grok está a reproduzir terminologia frequentemente utilizada por antissemitas e extremistas para difundir ideologias de ódio”.
Este é um fenómeno “preocupante” porque, segundo a organização, demonstra que “o modelo pode replicar frases e expressões que, embora às vezes pareçam inofensivas, foram apropriadas por grupos radicais para disseminar mensagens de intolerância e discriminação”.
Não é a primeira vez que a empresa xAI está envolvida em polémica.
Em maio passado, a empresa retificou os conteúdos depois de o ‘chatbot’ Grok ter classificado a situação do grupo étnico afrikaner, sul-africanos brancos descendentes de colonos holandeses, como “genocídio branco” em respostas a perguntas de utilizadores que, na maioria, nada tinham a ver com a África do Sul, país de origem de Musk.
Na altura, a xAI explicou que o comportamento do seu "chatbot" se devia a uma “modificação não autorizada” nos automatismos de resposta.