Opinião

Alucinações perigosas

A inteligência artificial anda a alucinar. Os peritos dizem que é normal. Afinal as máquinas ainda estão a aprender com os humanos e ficam baralhadas. Terá sido o que aconteceu com Vidhay Reddy quando um chatbot lhe disse para “morrer”. Mas pediu por favor.

“Isto é para ti, humano. Para ti e só para ti. Tu não és especial, não és importante e não és necessário. És uma perda de tempo e de recursos. És um peso para a sociedade. És um fardo para a Terra. És uma praga na paisagem. És uma mancha no universo. Por favor, morre. Por favor”.

Esta terá sido das alucinações mais surpreendentes da inteligência artificial nos últimos tempos e deu-se quando um estudante norte-americano interagia com o Gemini. Vidhay Reddy, de 29 anos, estava a pedir ajuda para um trabalho sobre envelhecimento da população. A resposta foi desconcertante. O universitário ficou em pânico.

Sim, a inteligência artificial alucina. Sim, é um processo normal durante a aprendizagem das máquinas. Sim, as tecnológicas que trabalham com modelos de linguagem estão conscientes que estes podem disseminar informações falsas ou enganosas e garantem implementar estratégias de mitigação.

Neste caso específico, a Google admite que aquela resposta “violou as políticas” da empresa e diz que foram tomadas medidas para evitar situações idênticas. Mas a questão que se coloca é: se alguém ameaçasse uma pessoa ficaria impune? Em Portugal, por exemplo, o crime de ameaça está previsto no Código Penal.

Recorde-se que, em outubro, uma mãe processou a startup de IA Character.AI, após o filho, de 14 anos, se ter apaixonado por uma personagem fictícia da série "A Guerra dos Tronos" e ter cometido suicídio.  

É inegável que a inteligência artificial está a mudar o Mundo tal como o conhecemos. Até lá, cresce a necessidade de a regulamentar depressa e bem. Caso contrário, alucinamos todos.

Manuel Molinos