Conflito ético na inteligência artificial: Trump proíbe Anthropic e OpenAI avança com contrato militar

Sam Altman, CEO da OpenAI, explicou que o contrato inclui salvaguardas rigorosas
Foto: Samuel Harris Altman/EPA
A tecnológica norte-americana OpenAI vai fornecer inteligência artificial a redes militares confidenciais, garantindo limites éticos sobre vigilância e armas autónomas. A Anthropic, concorrente direta, foi banida do governo de Trump por recusar flexibilizar restrições sobre o uso militar da sua tecnologia.
Na sexta-feira, poucas horas depois de Donald Trump ordenar que todas as agências federais cessassem imediatamente o uso de ferramentas da Anthropic, a OpenAI anunciou que tinha fechado um acordo com o Pentágono.
A decisão destaca a crescente tensão entre inovação tecnológica, defesa e ética, e marca uma viragem no acesso das empresas de inteligência artificial aos programas militares confidenciais dos Estados Unidos.
Sam Altman, CEO da OpenAI, explicou que o contrato inclui salvaguardas rigorosas. "Dois dos nossos princípios mais importantes são a proibição de vigilância doméstica em massa e a responsabilidade humana pelo uso da força, incluindo armas autónomas. O Pentágono concorda com estes princípios e refletiu-os na lei e na política", escreveu Altman na rede social X.
Anthropic fora do jogo
O afastamento da Anthropic resulta de meses de negociações tensas. O Pentágono exigia acesso irrestrito ao sistema Claude, alegando que poderia ser usado para proteger o país. A empresa recusou-se, argumentando que não poderia permitir que a tecnologia servisse para espionagem massiva ou armamento autónomo. "Nenhuma pressão do Pentágono mudará a nossa posição sobre vigilância doméstica ou armas totalmente autónomas", afirmou a Anthropic num comunicado.
O presidente dos EUA considerou a recusa da Anthropic um erro grave e criticou publicamente a empresa. "A Anthropic cometeu um erro desastroso ao tentar impor os seus termos ao Pentágono, em vez de cumprir a Constituição", escreveu na sua plataforma Truth Social. A administração classificou a empresa como um "risco para a cadeia de fornecimento", impedindo temporariamente qualquer colaboração com agências militares até a situação ser resolvida.
Altman acrescentou que a OpenAI espera que os mesmos termos de segurança sejam aplicados a todas as empresas de IA, numa tentativa de "desescalar conflitos legais e caminhar para acordos razoáveis". A tecnológica enviará engenheiros para supervisionar a implementação dos seus sistemas no Pentágono, garantindo que os princípios éticos são respeitados e que decisões de alto risco permanecem sob controlo humano.
Paralelamente, a OpenAI anunciou uma ronda de investimento de 110 mil milhões de dólares (cerca de 102 mil milhões de euros), que avalia a empresa em 840 mil milhões de dólares (cerca de 780 mil milhões de euros), reforçando a sua posição de liderança na indústria da inteligência artificial.

