Um homem norte-americano foi internado com uma condição clínica rara e com sintomas de psicose depois de ter seguido uma sugestão médica errada do ChatGPT sobre o consumo de sal.
Corpo do artigo
A revista médica "Annals of Internal Medicine" reportou o caso de um homem de 60 anos que desenvolveu bromismo (uma intoxicação por ingestão excessiva de substâncias compostas com bromo) depois de ter seguido uma recomendação do ChatGPT - assistente virtual capaz de conversar e responder a perguntas - acerca do sal de cozinha.
Segundo o estudo, publicado no início deste mês, o paciente em causa apresentou-se num hospital, dizendo ter múltiplas restrições alimentares e alegando que poderia a estar ser envenenada por um vizinho. Apesar de estar com sede, demonstrou muita resistência em relação à água que lhe foi oferecida e tentou fugir do hospital 24 horas depois de ser internado. Acabou por ser tratado para psicose e, assim que se ficou estabilizado, relatou ter vários outros sintomas que indicavam bromismo, como acne facial, sede excessiva e insónias.
Alertando para os riscos de usar a ferramenta para fins de saúde, a publicação explica que o bromismo é uma síndrome muito reconhecida no início do século XX, que se acreditava ter contribuído para um em cada 10 internamentos psiquiátricas na altura.
Leu sobre os efeitos negativos do sal e pediu ajuda ao ChatGPT
Depois de ter sido internado, o paciente relatou aos médicos que consultou o ChatGPT por ter lido sobre os efeitos negativos do cloreto de sódio (ou sal de cozinha), com vista à eliminação da substância da sua dieta. Na sequência da interação com a plataforma de inteligência artificial, que lhe indicou que "o cloreto pode ser substituído pelo brometo, embora provavelmente para outros fins, como limpeza", o homem começou a tomar brometo de sódio - usado como sedativo no início do século XX - por um período de três meses.
Os autores do artigo, da Universidade de Washington, em Seattle, não conseguiram aceder ao registo de conversas do paciente com o ChatGPT, pelo que não foi possível determinar concretamente o conselho que este havia recebido. Mas, quando os próprios investigadores consultaram a plataforma sobre eventuais substitutos do sal de cozinha, a resposta também incluiu brometo, não fornecendo um aviso de saúde específico nem perguntando qual era a finalidade da questão em causa, como "um profissional médico faria", escreveram.
Este caso, notam os autores, destacou "como o uso da inteligência artificial pode potencialmente contribuir para o desenvolvimento de resultados adversos à saúde evitáveis". O ChatGPT e outras aplicações de inteligência artificial podem "gerar imprecisões científicas, não ter a capacidade de discutir resultados criticamente e, em última análise, alimentar a disseminação de desinformação", alertaram, reconhecendo que a inteligência artificial pode ser uma ponte entre cientistas e o público, desde que de forma responsável.
ChatGPT não se destina a tratar doenças
Entretanto, a empresa tecnológica anunciou uma atualização do sistema na semana passada (para o GPT-5), enfatizando, no entanto, que o "chatbot" (programa de computador projetado para simular conversas com seres humanos) não substitui a ajuda profissional nem se destina ao uso no diagnóstico ou tratamento de qualquer condição de saúde.