A Nvidia afirmou nesta terça-feira (25) que sua tecnologia de chips de inteligência artificial permanece “uma geração à frente” do restante do mercado. A declaração foi publicada na rede social X poucas horas depois de os papéis da companhia recuarem 3%, em meio a rumores de que a Meta poderia adotar as unidades de processamento de tensores (TPUs) do Google em seus data centers.
A empresa destacou que suas GPUs oferecem maior flexibilidade, desempenho e versatilidade que os ASICs – categoria na qual se enquadram as TPUs do Google, desenhadas para tarefas mais específicas. Segundo a fabricante, sua plataforma é a única capaz de executar qualquer modelo de IA em diferentes ambientes de computação.
Chips Blackwell no centro da disputa
A linha mais recente da Nvidia é a família Blackwell, conhecida pelo alto desempenho e custo elevado. Apesar de a companhia deter mais de 90% do mercado de chips de IA, analistas veem crescimento do interesse nas TPUs do Google, consideradas uma alternativa potencialmente mais barata.
Ao contrário da Nvidia, o Google não comercializa seus próprios chips; eles são empregados internamente e disponibilizados para clientes por meio do serviço Google Cloud. O lançamento do modelo de IA Gemini 3, treinado exclusivamente em TPUs, intensificou o debate sobre concorrência no segmento.
Imagem: Koshiro K
Huang: Google continua cliente
Durante teleconferência recente, o CEO da Nvidia, Jensen Huang, afirmou que o Google segue sendo cliente da empresa e que o Gemini pode rodar em GPUs da companhia. O executivo relatou conversas com Demis Hassabis, CEO do Google DeepMind, nas quais ambos reforçaram a “lei da escalabilidade” — a premissa de que mais chips e mais dados levam a modelos de IA cada vez mais robustos. Para Huang, esse princípio deve sustentar a demanda pelos sistemas da Nvidia.
Com informações de Olhar Digital








