
A Meta está reformulando sua estratégia de infraestrutura de IA por meio de uma ampla parceria de hardware que se concentra nas CPUs da Nvidia ao lado de GPUs de próxima geração.
Meta assina acordo multianual com a Nvidia abrangendo GPUs e CPUs independentes
A empresa-mãe do Facebook, Meta, assinou um acordo multianual com a Nvidia para comprar milhões de chips, cobrindo tanto GPUs quanto, pela primeira vez, CPUs independentes. O acordo inclui as atuais GPUs Blackwell, as próximas GPUs Rubin e os novos processadores Grace e Vera como produtos independentes. No entanto, nenhuma das partes divulgou o valor total do contrato.
Ben Bajarin, CEO e analista principal da consultoria de tecnologia Creative Strategies, estimou que o pacote valeria bilhões de dólares. Além disso, o veículo de tecnologia The Register relatou que o acordo provavelmente adicionará dezenas de bilhões ao resultado da Nvidia ao longo de seu período. Isso destaca quão agressivamente a Meta está ampliando sua presença em IA.
O CEO da Meta, Mark Zuckerberg, já havia sinalizado essa mudança nas prioridades de gastos. Ele anunciou que a Meta planeja quase dobrar seu investimento em infraestrutura de IA em 2026, com os gastos totais potencialmente alcançando $135 bilhões. Dito isso, o novo acordo de chips dá ao mercado uma imagem mais clara de onde grande parte desse capital será alocado.
A estratégia de CPU da Nvidia pivota em direção a cargas de trabalho de inferência
O elemento mais marcante do acordo não é a compra de GPUs, mas a decisão da Meta de adotar as CPUs da Nvidia em grande escala como produtos independentes. Até o início de 2026, o processador Grace foi oferecido quase exclusivamente como parte dos chamados Superchips, que combinam uma CPU e uma GPU em um único módulo. No entanto, a Nvidia mudou oficialmente sua estratégia de vendas em janeiro de 2026 e começou a vender essas CPUs separadamente.
O primeiro cliente de CPU independente publicamente nomeado na época era o provedor de neocloud CoreWeave. Agora, a Meta está se juntando a essa lista, sinalizando uma demanda crescente por arquiteturas baseadas em CPU flexíveis. Isso se alinha com uma transição mais ampla em IA, de treinar modelos massivos para servi-los em ambientes de produção.
A empresa está mirando o segmento de inferência em rápida expansão. Nos últimos anos, o setor de IA focou fortemente no treinamento intensivo de GPUs de grandes modelos. No entanto, a ênfase está mudando cada vez mais para a inferência, o processo de execução e escalonamento desses sistemas treinados. Para muitas tarefas de inferência, GPUs tradicionais são excessivas em termos de custo e potência.
"Estávamos na era de 'treinamento', e agora estamos nos movendo mais para a 'era de inferência', que demanda uma abordagem completamente diferente", disse Bajarin ao Financial Times. Dito isso, essa mudança não elimina a demanda por GPUs; em vez disso, muda o equilíbrio entre cargas de trabalho de GPU vs CPU dentro de data centers de hiperescalas.
CPUs Grace e Vera: detalhes técnicos e planos de implantação da Meta
Ian Buck, VP e Gerente Geral de Hiperscale e HPC da Nvidia, disse, de acordo com o The Register, que o processador Grace pode "oferecer 2x o desempenho por watt nessas cargas de trabalho de back end", como executar bancos de dados. Além disso, ele observou que "a Meta já teve a oportunidade de entrar no Vera e executar algumas dessas cargas de trabalho, e os resultados parecem muito promissores." Isso destaca o impulso da Nvidia para otimizar a eficiência energética para inferência em larga escala e processamento de dados.
A CPU Grace possui 72 núcleos Arm Neoverse V2 e usa memória LPDDR5x, que oferece vantagens em ambientes de largura de banda e espaço restritos. Em contraste, a CPU Vera de próxima geração da Nvidia traz 88 núcleos Arm personalizados com multi-threading simultâneo e capacidades de computação confidencial integradas. Essas especificações sublinham a ambição da Nvidia de competir diretamente com os fornecedores de CPU de servidor consolidados.
De acordo com a Nvidia, a Meta planeja usar o Vera para processamento privado e recursos de IA em seu serviço de mensagens criptografadas WhatsApp. A implantação do Vera está planejada para 2027, indicando um roadmap de vários anos para a modernização do back-end da Meta. No entanto, a empresa não forneceu cronogramas detalhados de implantação para cada região do data center ou serviços específicos além de mensagens e cargas de trabalho relacionadas à segurança.
Cenário competitivo: Nvidia entra na arena de CPU de servidor
A decisão da Nvidia de vender CPUs como produtos independentes a coloca em concorrência direta com a Intel e a AMD no lucrativo mercado de servidores. Anteriormente, grande parte do crescimento da Nvidia vinha de GPUs, mas a adição de CPUs dá à empresa um portfólio de data center mais completo. Além disso, permite que os clientes construam pilhas completas em torno do mesmo fornecedor em vez de misturar componentes de vários fornecedores.
Ao comprar CPUs independentes da Nvidia, a Meta está se desviando da estratégia adotada por outros hiperescaladores. A Amazon depende de seus próprios processadores Graviton, enquanto o Google se apoia em seus chips personalizados Axion. A Meta, por outro lado, está comprando da Nvidia, mesmo enquanto continua a projetar seus próprios aceleradores de IA. No entanto, o Financial Times relatou que os esforços internos de chip da Meta "sofreram alguns desafios técnicos e atrasos na implantação."
Para a Nvidia, a pressão competitiva também está aumentando. Google, Amazon e Microsoft anunciaram novos chips internos nos últimos meses. Em paralelo, a OpenAI co-desenvolveu um processador com a Broadcom e assinou um contrato de fornecimento significativo com a AMD. Várias startups, incluindo a Cerebras, estão promovendo silício de inferência especializado que poderia erodir a dominância da Nvidia se amplamente adotado.
Tensões de mercado, reações das ações e estratégias multi-fornecedor
Em dezembro, a Nvidia adquiriu talentos da empresa de chips de inferência Groq em um acordo de licenciamento, visando reforçar sua base tecnológica nesta nova fase de computação de inferência. No entanto, o sentimento dos investidores continua sensível a qualquer sinal de diversificação de clientes. No final do ano passado, as ações da Nvidia caíram quatro por cento após relatos sugerirem que a Meta estava em negociações com o Google sobre o uso de Unidades de Processamento Tensor. Nenhum acordo formal sobre TPUs foi anunciado desde então.
A Meta também não está restrita exclusivamente ao hardware da Nvidia. De acordo com o The Register, a empresa opera uma frota de GPUs AMD Instinct e participou diretamente do design dos sistemas de rack Helios da AMD, que estão programados para lançamento ainda este ano. Além disso, essa abordagem multi-fornecedor dá à Meta vantagem nas negociações de preços e ajuda a reduzir o risco de fornecimento em sua infraestrutura de IA rápida e crescente.
À medida que a empresa expande seus data centers, a questão "a Nvidia vende CPUs" está sendo respondida na prática por meio de implantações como esta. O acordo mais amplo entre a Meta e a Nvidia mostra como as CPUs da Nvidia estão se tornando uma peça central de arquiteturas de inferência em larga escala, mesmo enquanto os hiperescaladores experimentam com seu próprio silício personalizado e plataformas de aceleradores rivais.
Em resumo, o acordo de hardware de vários anos da Meta sublinha uma transição estrutural em IA, de clusters de GPU pesados em treinamento para arquiteturas otimizadas para inferência construídas em torno de CPUs avançadas como Grace e Vera. No entanto, com Intel, AMD, processadores nativos da nuvem e startups especializadas competindo por cargas de trabalho semelhantes, a Nvidia enfrenta uma batalha complexa para transformar sua nova estratégia de CPU em domínio de data center a longo prazo.
