Gigantes tecnológicas criam grupo de inteligência artificial para manter segurança
Quatro empresas líderes dos EUA no domínio da inteligência artificial (IA) anunciaram, esta quarta-feira, a formação de um grupo do setor dedicado a enfrentar os riscos da tecnologia.
Corpo do artigo
A Anthropic, a Google, a Microsoft e a OpenAI (criadora do ChatGPT) criaram o Frontier Model Forum, que irá recorrer à experiência das empresas membro para minimizar os riscos da IA e apoiar as normas do setor.
As empresas comprometeram-se a partilhar as melhores práticas entre si, com legisladores e investigadores.
Os modelos "Frontier" referem-se a plataformas que levam a IA a novos níveis de sofisticação, incluindo recursos que podem ser perigosos.
"As empresas que criam tecnologia IA têm a responsabilidade de garantir que esta é segura, protegida e permanece sob controlo humano", afirmou o presidente da Microsoft, Brad Smith, em comunicado.
"Esta iniciativa é um passo vital para reunir o setor de tecnologia no avanço da IA de forma responsável e enfrentar os desafios, para que toda a humanidade possa beneficiar", acrescentou.
O presidente dos Estados Unidos, Joe Biden, relembrou os "enormes" riscos e promessas da IA numa reunião na Casa Branca, na semana passada, com líderes tecnológicos que se comprometeram a proteger a tecnologia, desde ciberataques a fraudes, à medida que o setor for crescendo.
Ao lado de representantes da Amazon, Anthropic, Google, Inflection, Meta, Microsoft e OpenAI, Biden garantiu que as empresas se comprometeram a "orientar a inovação responsável", à medida que a IA se espalha cada vez mais pelas vidas pessoais e empresariais da população.
Antes da reunião, os sete gigantes tecnológicos comprometeram-se com uma série de salvaguardas que a Casa Branca resumiu como "três princípios que devem ser fundamentais para o futuro da IA: segurança, proteção e confiança".
As empresas concordaram em desenvolver mecanismos técnicos - como sistemas de marcas de água - para garantir que os utilizadores sabem quando o conteúdo é produzido por inteligência artifiail, em vez de humanos.
Os principais objetivos do Frontier Model Forum incluem minimizar os riscos e permitir avaliações de segurança independentes de plataformas de IA, de acordo com as empresas envolvidas.
O grupo de trabalho também apoiará o desenvolvimento de aplicações destinadas a enfrentar desafios como as alterações climáticas, a prevenção do cancro e as ameaças cibernáuticas, segundo os criadores.
Outras empresas que estão a explorar avanços na área da inteligência artificial foram convidadas a juntar-se ao grupo.
"As tecnologias avançadas de IA têm o potencial de beneficiar profundamente a sociedade, e a capacidade de atingir esse potencial requer supervisão", realçou a vice-presidente de assuntos globais da OpenAI, Anna Makanju.
"É vital que as empresas de IA - especialmente aquelas que trabalham em modelos mais poderosos - se alinhem em terreno comum e promovam práticas de segurança ponderadas e adaptáveis"; concluiu.