Pentágono explica por que considera a IA Claude, da Anthropic, um risco para a cadeia de suprimentos de defesa

O Departamento de Defesa dos Estados Unidos esclareceu publicamente, pela primeira vez, a razão de ter classificado os modelos Claude, da Anthropic, como “risco à cadeia de suprimentos de defesa”. A explicação foi dada em 12 de março de 2026 por Emil Michael, diretor de tecnologia da pasta, durante participação no programa “Squawk Box”, da CNBC.

Leia mais

Preocupação com “orientação de políticas”

Michael afirmou que a constituição interna de princípios que orienta o Claude embute “preferências de política” capazes de comprometer a eficácia de produtos finais usados pelas Forças Armadas. Segundo ele, essa orientação poderia “poluir” a cadeia de suprimentos, resultando em armas, coletes ou outros equipamentos menos eficientes.

Leia mais

“Não podemos ter uma empresa cuja preferência de política esteja incorporada ao modelo, contaminando a cadeia de suprimentos e entregando proteção ineficaz aos combatentes”, declarou.

Leia mais

Classificação inédita contra empresa dos EUA

A designação chama a atenção por normalmente recair sobre companhias ligadas a adversários estrangeiros. Desta vez, o alvo é uma empresa norte-americana fundada em 2021 por ex-pesquisadores da OpenAI.

Leia mais

Reação da Anthropic

Em 5 de março de 2026, o CEO Dario Amodei comunicou que a Anthropic recorrerá à Justiça para anular a classificação, argumentando que a medida é “sem precedentes e ilegal” e pode gerar danos irreparáveis, inclusive a contratos de centenas de milhões de dólares.

Leia mais

Linha do tempo do impasse

11 de julho de 2024 – Parceria entre Anthropic e Palantir para integrar o Claude à plataforma Palantir AIP, voltada a agências de defesa e inteligência. 14 de julho de 2025 – Pentágono concede contrato de prototipagem de US$ 200 milhões à Anthropic para desenvolver capacidades de IA de ponta. Janeiro de 2026 – Memorando do secretário de Defesa, Pete Hegseth, exige que contratos de IA permitam “qualquer uso lícito” em 180 dias, entrando em conflito com salvaguardas da Anthropic contra vigilância doméstica em massa e armas totalmente autônomas. 24 de fevereiro de 2026 – Hegseth exige acesso irrestrito aos modelos Claude; Anthropic recusa. 27 de fevereiro de 2026 – Prazo expira; presidente Donald Trump ordena suspensão do uso de produtos da Anthropic por agências federais. No mesmo dia, a empresa é declarada risco à cadeia de suprimentos. 28 de fevereiro de 2026 – OpenAI anuncia acordo para fornecer seus modelos ao Departamento de Defesa, aceitando as exigências de uso lícito. 4 de março de 2026 – Pentágono oficializa a classificação de risco contra a Anthropic. 5 de março de 2026 – Anthropic confirma ação judicial contestando a decisão.

Leia mais

Uso ainda não totalmente interrompido

Apesar da designação, a Palantir Technologies informou que continua empregando o Claude em determinados projetos. Emil Michael reconheceu que a substituição será gradual e que existe um plano de transição em andamento.

Leia mais

Com informações de Olhar Digital

Leia mais

Gostou deste story?

Aproveite para compartilhar clicando no botão acima!

Esta página foi gerada pelo plugin

Visite nosso site e veja todos os outros artigos disponíveis!

Portal Veredão