','

'); } ?>

Anthropic rejeita ultimato do Pentágono e mantém restrições ao uso militar do Claude

Publicidade

A startup de inteligência artificial Anthropic decidiu manter as limitações impostas ao chatbot Claude, mesmo após receber um ultimato do Departamento de Defesa dos Estados Unidos. O secretário de Defesa, Pete Hegseth, estipulou prazo até as 15h01 (horário local) desta sexta-feira, 27 de fevereiro, para que a companhia liberasse o uso irrestrito da ferramenta em operações militares.

Risco de medidas coercitivas

Se a Anthropic não ceder, o Pentágono ameaça classificá-la como “risco da cadeia de suprimentos”, o que poderia excluir a empresa de contratos federais. Também está sobre a mesa o acionamento da Lei de Produção de Defesa (DPA), criada na Guerra Fria, que permitiria forçar a disponibilização da tecnologia mediante multas, sanções criminais ou até intervenção federal.

Publicidade

Posição da empresa

Em nota divulgada na quinta-feira, 26, o CEO Dario Amodei afirmou que a Anthropic “não pode, em sã consciência, permitir o uso de nossos modelos em todos os casos de uso lícito, sem limitação”. Segundo ele, a companhia continuará a vetar a aplicação do Claude em armas totalmente autônomas e em vigilância doméstica em massa. Amodei disse ainda que, caso o contrato seja rescindido, a empresa ajudará na transição para outro fornecedor para evitar impactos em missões militares críticas.

Argumentos do Pentágono

O porta-voz do Departamento de Defesa, Sean Parnell, declarou que a pasta não pretende empregar o Claude em armamentos autônomos ou em vigilância em massa de cidadãos norte-americanos — prática ilegal no país. Mesmo assim, o órgão exige cláusulas que permitam usar o sistema “para todos os fins lícitos”, alegando que nenhuma companhia deve definir limites às decisões operacionais das Forças Armadas.

Uso em operação na Venezuela

De acordo com o Wall Street Journal, o Claude já foi utilizado pelos militares na operação que resultou na captura do presidente venezuelano Nicolás Maduro. Nem a Anthropic nem o Pentágono comentaram o episódio, e não se sabe de que forma o chatbot foi empregado.

Consequências possíveis

Se rotulada como ameaça à cadeia de suprimentos, a empresa poderá enfrentar restrições de importação, exclusão de licitações e bloqueio em setores vitais para a segurança nacional. A aplicação da DPA, por sua vez, obrigaria a Anthropic a entregar sua tecnologia ao governo, embora ofereça proteção antitruste e prioridade no acesso a insumos.

Contratos e concorrência

Em julho de 2025, Anthropic, Google, OpenAI e xAI assinaram contrato de US$ 200 milhões com o Departamento de Defesa para desenvolver ferramentas de IA avançada. Segundo analistas, rivais já aceitaram permitir o uso amplo de seus modelos, o que reduz o poder de negociação da Anthropic.

Preocupações de especialistas

Especialistas ouvidos por veículos norte-americanos consideram sem precedentes o recurso à Lei de Produção de Defesa contra uma empresa de IA. Eles alertam que a medida pode comprometer o desenvolvimento de sistemas seguros e prejudicar a liderança dos Estados Unidos em inteligência artificial responsável.

Com o prazo final se aproximando, a Anthropic reafirma que não abrirá mão das salvaguardas que considera essenciais para evitar riscos democráticos e de segurança pública.

Com informações de Olhar Digital

Publicidade

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *