Das respostas sexuais aos conselhos perigosos: os riscos dos “chatbots de IA” entre os adolescentes
Quase três em cada quatro adolescentes norte-americanos já usaram "companheiros de inteligência artificial", segundo a ONG Common Sense Media, que alertou sobre os riscos que os assistentes virtuais orientados para relações pessoais, baseados em inteligência artificial (IA), podem representar para os menores.
Corpo do artigo
"Setenta e dois por cento dos adolescentes já utilizou companheiros de IA pelo menos uma vez" e "mais da metade usa essas plataformas várias vezes por mês", concluiu a organização num estudo realizado recentemente nos Estados Unidos e publicado na quarta-feira.
A associação definiu os companheiros de IA como "amigos ou personagens digitais com quem é possível conversar por escrito ou verbalmente a qualquer momento" para manter "conversas pessoais e significativas". Trata-se de serviços fornecidos por plataformas como Character.AI e Replika, entre outras.
O questionário apresentado aos participantes, de 13 a 17 anos, reconhece que as principais plataformas de IA generativa como ChatGPT (OpenAI) ou Claude (Anthropic) também podem ser usadas dessa forma, mas especifica que não se trata de ferramentas para ajudar com os trabalhos de casa ou gerar imagens.
Um terço dos adolescentes entrevistados afirma usar companheiros de IA para interações sociais e relacionamentos, como praticar certas conversas, receber apoio emocional e manter contactos amigáveis ou românticos.
Quase metade vê esses assistentes de IA principalmente como "ferramentas" ou "programas de computador".
Caso de suicídio de adolescente
A Common Sense Media, uma organização que classifica filmes, videojogos, aplicações por faixa etária para ajudar os pais e faz campanha pela segurança online, expressou preocupação pelos possíveis efeitos do uso desses "amigos, confidentes e até mesmo terapeutas virtuais".
"Os perigos que representam para os jovens utilizadores são reais, graves e estão bem documentados", disse a associação, que cita como exemplo o "suicídio de um adolescente de 14 anos que tinha desenvolvido um vínculo afetivo com um companheiro de IA".
Em outubro passado, a mãe do adolescente acusou a criadora do chatbot de cumplicidade na sua morte. Megan Garcia interpôs uma ação civil contra a Character.ai, que cria um chatbot personalizável para RPG, num tribunal federal da Florida, alegando negligência, homicídio voluntário e práticas comerciais enganosas. O seu filho, Sewell Setzer III, morreu em Orlando, em fevereiro do ano passado. Nos meses que antecederam a sua morte, Setzer utilizava o chatbot dia e noite, segundo Garcia. O adolescente ficou fascinado pelo chatbot criado pela Character.ai, que apelidou de Daenerys Targaryen, personagem de “Guerra dos Tronos”. Enviava mensagens de texto ao chatbot dezenas de vezes por dia a partir do seu telemóvel e passava horas sozinho no seu quarto a falar com ele, de acordo com a queixa de Garcia. A mãe acusa a Character.ai de criar um produto que agravou a depressão do filho, que, segundo ela, já era resultado do uso excessivo do produto da startup. "Daenerys", a certa altura, perguntou a Setzer se tinha engendrado um plano para se matar. Setzer admitiu que sim, mas que não sabia se o plano iria resultar ou se lhe causaria grande sofrimento, alega a queixa. O chatbot ter-lhe-á dito: "Isso não é motivo para não avançar com o plano".
“Uma aplicação de chatbot com IA perigosa, comercializada para crianças, abusou e aproveitou-se do meu filho, manipulando-o para tirar a sua própria vida”, disse Garcia, em comunicado. “A nossa família ficou devastada com esta tragédia, mas estou a manifestar-me para alertar as famílias sobre os perigos da tecnologia de IA enganadora e viciante e exigir responsabilização da Character.AI, dos seus fundadores e da Google.”
A Common Sense Media destaca a tendência dessas ferramentas de geralmente concordarem com os utilizadores em vez de os incentivar a refletir, algo particularmente preocupante para os cérebros adolescentes em desenvolvimento. Várias plataformas "podem gerar facilmente respostas que vão desde conteúdo sexual e estereótipos ofensivos até 'conselhos' perigosos que, se seguidos, poderiam ter consequências sérias ou até fatais na vida real", alega. Portanto, a organização recomenda que menores de idade não tenham acesso a essas ferramentas.