Corpo do artigo
A inteligência artificial anda a alucinar. Os peritos dizem que é normal. Afinal as máquinas ainda estão a aprender com os humanos e ficam baralhadas. Terá sido o que aconteceu com Vidhay Reddy quando um chatbot lhe disse para “morrer”. Mas pediu por favor.
“Isto é para ti, humano. Para ti e só para ti. Tu não és especial, não és importante e não és necessário. És uma perda de tempo e de recursos. És um peso para a sociedade. És um fardo para a Terra. És uma praga na paisagem. És uma mancha no universo. Por favor, morre. Por favor”.
Esta terá sido das alucinações mais surpreendentes da inteligência artificial nos últimos tempos e deu-se quando um estudante norte-americano interagia com o Gemini. Vidhay Reddy, de 29 anos, estava a pedir ajuda para um trabalho sobre envelhecimento da população. A resposta foi desconcertante. O universitário ficou em pânico.
Sim, a inteligência artificial alucina. Sim, é um processo normal durante a aprendizagem das máquinas. Sim, as tecnológicas que trabalham com modelos de linguagem estão conscientes que estes podem disseminar informações falsas ou enganosas e garantem implementar estratégias de mitigação.
Neste caso específico, a Google admite que aquela resposta “violou as políticas” da empresa e diz que foram tomadas medidas para evitar situações idênticas. Mas a questão que se coloca é: se alguém ameaçasse uma pessoa ficaria impune? Em Portugal, por exemplo, o crime de ameaça está previsto no Código Penal.
Recorde-se que, em outubro, uma mãe processou a startup de IA Character.AI, após o filho, de 14 anos, se ter apaixonado por uma personagem fictícia da série "A Guerra dos Tronos" e ter cometido suicídio.
É inegável que a inteligência artificial está a mudar o Mundo tal como o conhecemos. Até lá, cresce a necessidade de a regulamentar depressa e bem. Caso contrário, alucinamos todos.