A inteligência artificial na União Europeia será regulada por uma lei pioneira a aprovar pelo Parlamento e pelo Conselho após terem chegado a acordo esta semana. Em abril de 2021, a Comissão propôs que os sistemas de IA sejam classificados segundo o seu risco para os utilizadores. Veja aqui os principais pontos.
Corpo do artigo
Qual a prioridade da UE para esta lei sobre a IA?
É garantir que os sistemas de IA utilizados na UE sejam seguros, transparentes, rastreáveis, não discriminatórios e respeitadores do ambiente. Devem ser supervisionados por pessoas, em vez de serem automatizados, para evitar resultados prejudiciais.
Os sistemas serão analisados em função dos riscos que representam para os utilizadores. Quais são os níveis de risco identificados no projeto de lei?
As novas regras estabelecem obrigações para fornecedores e utilizadores em função do nível de risco da IA: mínimo, limitado, elevado e inaceitável.
Quais são os riscos inaceitáveis?
Os sistemas de IA considerados uma ameaça clara aos direitos fundamentais das pessoas serão proibidos. Isto inclui sistemas ou aplicações que manipulam o comportamento humano para contornar o livre arbítrio dos utilizadores, tais como brinquedos que utilizam assistência de voz que incentivam comportamentos perigosos de menores. Além disso, serão proibidas algumas utilizações de sistemas biométricos, por exemplo, sistemas de reconhecimento de emoções utilizados no local de trabalho e alguns sistemas de categorização de pessoas ou identificação biométrica remota em tempo real. Está incluída nesta categoria de risco a pontuação social (classificação de pessoas com base no comportamento, estatuto socioeconómico ou caraterísticas pessoais).
E os sistemas de risco elevado?
Estes serão obrigados a cumprir requisitos rigorosos, incluindo sistemas de mitigação de riscos, registo de atividades, documentação detalhada, informações claras do utilizador, supervisão humana e um alto nível de segurança cibernética. É o caso de sistemas que envolvem certas infraestruturas críticas, por exemplo nos domínios da água, do gás e da eletricidade; dispositivos médicos; sistemas para determinar o acesso a instituições de ensino ou para recrutar pessoas; ou mesmo sistemas utilizados nos domínios da aplicação da lei, controlo de fronteiras, administração da justiça e processos democráticos. Os sistemas terão de ser registados numa base de dados da UE.
Como são classificadas pela UE as ferramentas de inteligência artificial como ChatGPT e Google Bard, que tornaram popular esta tecnologia?
São classificadas como aplicações de risco limitado. Porém, para os chatbots e softwares capazes de gerar imagens manipuladas, como “deepfakes”, terá de ficar claro que os conteúdos são gerados por inteligência artificial.
Que multas estão previstas para as empresas que não cumprirem as regras?
Estão previstas multas por infração que variam entre 7,5 milhões de euros (ou 1,5% do volume de negócios) e 35 milhões de euros (ou 7% das vendas).
Que outras medidas foram acordadas entre as instâncias europeias?
A lei da IA introduz regras específicas para modelos de uso geral que garantirão a transparência ao longo da cadeia de valor. Para modelos que possam representar riscos sistémicos, haverá obrigações vinculativas adicionais relacionadas com a gestão de riscos e a monitorização de incidentes graves, a realização de avaliação de modelos e testes contraditórios. Estas novas obrigações serão operacionalizadas através de códigos de práticas desenvolvidos pela indústria, pela comunidade científica, pela sociedade civil e por outras partes interessadas, em conjunto com a Comissão.
E como será assegurada a aplicação das regras nos diferentes países?
As autoridades nacionais competentes de fiscalização do mercado supervisionarão a implementação das novas regras em cada país, enquanto um novo gabinete europeu de IA no seio da Comissão Europeia assegurará a coordenação. Para os modelos de uso geral, um painel científico de peritos independentes desempenhará um papel central, emitindo alertas sobre riscos sistémicos e contribuindo para a classificação e teste dos modelos.