Conflito entre IA e Segurança Nacional
A empresa de inteligência artificial Anthropic entrou com duas ações judiciais contra o governo dos Estados Unidos, contestando a decisão do Pentágono de classificá-la como um "risco à cadeia de suprimentos". A medida impede a companhia de realizar trabalhos de defesa e usa uma autoridade criada originalmente para evitar que adversários estrangeiros prejudiquem sistemas de segurança nacional.
Segundo relatos, é a primeira vez que o governo federal dos EUA utiliza essa designação contra uma empresa americana. A classificação foi imposta após uma disputa pública sobre como o chatbot Claude poderia ser usado em operações de guerra.
Restrições impostas
A Anthropic buscou restringir o uso de sua tecnologia em dois tipos de aplicações de alto nível: vigilância em massa de cidadãos americanos e armas totalmente autônomas. O secretário de Defesa, Pete Hegseth, e outras autoridades insistiram que a empresa deveria aceitar "todos os usos legais" do Claude e ameaçaram punições caso a companhia não cumprisse.
O presidente Donald Trump também ordenou que agências federais deixem de usar o Claude, embora tenha dado ao Pentágono seis meses para eliminar gradualmente o produto, que está profundamente integrado a sistemas militares classificados.
Impacto financeiro e legal
A classificação como risco à cadeia de suprimentos afeta diretamente a receita da empresa, que projetava US$ 14 bilhões neste ano, com mais de 500 clientes pagando pelo menos US$ 1 milhão por ano para usar o Claude. A Anthropic avalia a empresa em US$ 380 bilhões.
Em seu processo, a empresa afirma que as ações do governo são "sem precedentes e ilegais", argumentando que a Constituição não permite que o governo use seu poder para punir uma empresa por seu discurso protegido. A Anthropic recorre ao Judiciário como último recurso para defender seus direitos e interromper a campanha de retaliação do Executivo.