Com base em reportagens aprofundadas da Bloomberg e em anúncios oficiais da Google, a Google expandiu oficialmente o seu portefólio de chips de IA próprios no dia 22 de abril: o Ironwood, dedicado à inferência (7.ª geração de TPU), está agora em fornecimento total no Google Cloud, e em simultâneo foi lançada a colaboração de próxima geração com quatro parceiros — Broadcom, MediaTek, Marvell e Intel — com o objetivo de, através de uma cadeia de fornecimento de chips personalizados, desafiar de forma positiva a posição dominante da Nvidia no mercado de capacidade de computação em IA.
Ironwood: 7.ª geração de TPU, primeira vez concebida especificamente para inferência
O Ironwood é o produto de 7.ª geração da série de TPU da Google e o primeiro chip dedicado à inferência no âmbito da estratégia de “separação treino/inferência”. As especificações divulgadas pela Google: desempenho de ponta por chip 10 vezes superior ao do TPU v5p, com 192GB de memória HBM3E, largura de banda de memória até 7,2 TB/s, um superpod pode ser expandido até 9.216 unidades de Ironwood arrefecidas a líquido e, no total, a capacidade de computação FP8 atinge 42,5 exaflops.
A Google diz oficialmente que o Ironwood já está “totalmente disponível para clientes do Google Cloud” e que, este ano, as remessas deverão atingir o patamar de “um milhão de unidades”. A Anthropic já se comprometeu a adotar até 1 milhão de Ironwood TPU, enquanto a Meta assinou um acordo multianual de “dezenas de milhares de milhões de dólares” para utilizar TPU através do Google Cloud.
Repartição entre os quatro parceiros: treino fica com a Broadcom, inferência fica com a MediaTek
A cadeia de fornecimento de chips de próxima geração da Google tem a seguinte divisão clara:
Parceiro Código Papel Característica Broadcom Sunfish Treino dedicado Dá continuidade à relação de colaboração existente com TPU, lidera nós de treino de grande escala MediaTek (联发科) Zebrafish Inferência dedicada Afirma ser 20–30% mais barato em custos do que a solução da Broadcom Marvell Em negociação Unidade de processamento de memória (MPU) + TPU de inferência adicional para otimizações de HBM e inference Intel Não divulgado Participação no desenho para reforçar a dispersão da cadeia de fornecimento
Trata-se da primeira vez, na indústria de IA, que se vê o modelo de “quatro parceiros em paralelo, divisão de trabalho explícita entre treino e inferência”. A Google, ao dispersar riscos de IP e ao negociar preços perante a concorrência, evita a dependência estrutural de um único fornecedor como a Nvidia. O roadmap estende-se até ao final de 2027, com o TPU v8, a ser produzido no processo de 2nm da TSMC.
Significado estratégico: o que a Google está a desafiar não é um único chip, é a cadeia de fornecimento
Nos últimos três anos, o mercado de chips de IA tem sido quase monopolizado pela Nvidia, com a ecossistema de software CUDA e a dupla muralha formada pelos chips H100/GB200. A estratégia do Ironwood da Google e dos quatro parceiros não tem como objetivo “ultrapassar um requisito específico” em termos isolados, mas sim replicar a lógica da Nvidia na indústria — “plataforma padronizada + compras por múltiplos clientes” — para que as TPU não sejam apenas para uso próprio da Google, mas uma opção de capacidade de computação comercial que pode ser partilhada por principais empresas de IA como Anthropic e Meta.
O significado do compromisso da Anthropic de 1 milhão de TPU é particularmente crítico: trata-se do maior compromisso de capacidade de computação de uma única empresa de IA fora da Nvidia. E complementa-se com os compromissos da Anthropic 4/20 e com a Amazon ao alcançar 5GW/100 mil milhões de dólares em AWS — de um lado, a ligação ao AWS Trainium; do outro, a ligação às TPU da Google. A Anthropic reduz a dependência da Nvidia com uma estratégia de “dois chips personalizados”. A Meta, por sua vez, é a primeira empresa a incluir publicamente as TPU nos seus próprios workloads de treino/inferência de IA, criando mais um sinal.
Reação do mercado e ligação com a indústria
A MediaTek já era vista, antes desta divulgação, como “beneficiária de chips personalizados da Google”, e a exposição do código Zebrafish é a primeira vez que a MediaTek é listada diretamente como parceira de conceção de chips de inferência da Google. Esta extensão segue a linha narrativa recente da “aliança não-Nvidia”: AMD × GlobalFoundries para fotónica em silício e Marvell × Google para MPU.
A Nvidia, no mesmo período, ainda tem suporte do GB200 e da plataforma Rubin de próxima geração, mas a combinação de capacidade do lado do cliente está a passar de “total Nvidia” para a operação em três vias “Nvidia + TPU + AWS Trainium”. Isto também significa que, para a capacidade da TSMC em 2nm, Google, Nvidia, Apple e Amazon estão todas em fila, elevando continuamente o poder negocial do produtor por contrato de foundry.
Este artigo “Google Ironwood TPU: 10 vezes o desempenho + quatro parceiros a enfrentar a Nvidia” apareceu pela primeira vez em 鏈新聞 ABMedia.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
A avaliação da DeepSeek dispara acima de $20 Billion à medida que a Tencent e a Alibaba ponderam investimentos
A DeepSeek procura >$20B as Tencent/Alibaba discutem investimentos; a Nvidia alerta que a vantagem das chips dos EUA poderá ser posta em causa pela Huawei; o financiamento em IA continua a acelerar, com a $1B round da Vast Data e investimentos da OpenAI/Anthropic/xAI.
A DeepSeek pretende uma avaliação acima de $20 billion no meio das conversas com a Tencent e a Alibaba, enquanto a Nvidia alerta que a transferência de modelos de IA para chips da Huawei poderá corroer a liderança dos EUA. A peça também refere um aumento global do financiamento em IA, incluindo a $1 billion round da Vast Data a uma avaliação de $30 billion e grandes investimentos na OpenAI, Anthropic e xAI.
GateNews1h atrás
OpenClaw, Hermes e SillyTavern Confirmados com Suporte no GLM Coding Plan
O gestor de produto da Zhipu AI, Li, anuncia OpenClaw, Hermes e SillyTavern como projectos do GLM Coding Plan com suporte; outras ferramentas serão avaliadas caso a caso. Não partilhe credenciais nem utilize subscrições como acesso à API; contacte o suporte para o erro 1313.
O gestor de produto da Zhipu AI, Li, anunciou que OpenClaw, Hermes e SillyTavern são oficialmente suportados no âmbito do GLM Coding Plan, com outras ferramentas a serem avaliadas caso a caso. A nota alerta para não partilhar credenciais nem usar subscrições como acesso à API e orienta os utilizadores que se deparem com o erro 1313 a contactar o suporte.
GateNews4h atrás
CEO da Google Cloud: Gemini vai impulsionar o lançamento da Siri personalizada da Apple em 2026
Resumo: A Gemini irá impulsionar uma Siri personalizada da Apple em 2026, construída com os Modelos de Base da Apple e colaboração com a Gemini; a Apple está a testar uma Siri com aspeto de chat no iOS 27/macOS 27, prevista para a WWDC 2026.
Resumo: A Gemini da Google Cloud está preparada para impulsionar uma Siri personalizada da Apple até 2026, combinando a Gemini com os Modelos de Base da Apple no âmbito de uma colaboração de aproximadamente $1 mil milhões. A Apple está a testar uma Siri redesenhada e com aspeto de chat no iOS 27/macOS 27, com uma interface de Dynamic Island e novas funcionalidades, antes de um anúncio na WWDC 2026 a 8 de junho.
GateNews5h atrás
O Acordo SpaceX $60B Cursor Impulsiona o Apelo de SBF ao Perdão, à Medida que a $200K Participação da FTX Agora Vale $3B
Mensagem de Notícias do Gate, 22 de abril — A SpaceX anunciou hoje uma grande parceria com a startup de codificação com IA Cursor, com uma opção para adquirir a empresa por $60 mil milhões. O acordo deu novo combustível a Sam Bankman-Fried (SBF), que de momento está encarcerado e faz campanha por um perdão presidencial, já que demonstra o potencial de recuperação de valor que ele tem defendido há muito tempo que a FTX poderia ter alcançado.
Em abril de 2022, a Alameda Research, a empresa de trading fundada por SBF, investiu $200,000 na empresa-mãe da Cursor, a Anysphere, adquirindo aproximadamente 5% de participação. Quando a FTX colapsou em novembro de 2022, o tribunal de falências assumiu o controlo da empresa. Em abril de 2023, o património de falência da FTX vendeu essa mesma participação de 5% por $200,000 — o montante idêntico que a Alameda tinha investido. Com base na avaliação mil milhões anunciada hoje pela SpaceX, essa participação de 5% valeria agora aproximadamente mil milhões, representando um retorno de 15,000x.
SBF tem defendido há muito tempo que a FTX não estava verdadeiramente insolvente e que os advogados da falência destruíram valor ao liquidar ativos prematuramente. Em fevereiro de 2026, partilhou projeções sugerindo que a FTX poderia ter atingido um valor líquido de ativos de mil milhões após a recuperação de ativos. Os seus pais têm também estado ativos na procura de um perdão, aparecendo na CNN em março para argumentar que os clientes da FTX receberam reembolsos integrais. No entanto, os credores assinalaram que os reembolsos se basearam em valorizações de 2022, e não em preços actuais de mercado. O Presidente Trump afirmou que não irá perdoar SBF, e os mercados de previsão actualmente estimam a probabilidade de um perdão em 2026 em apenas 5%.
GateNews5h atrás
Acções da Chegg despenham 99% à medida que a IA perturba o mercado de tecnologia educacional
Resumo: A Chegg disparou durante a procura por educação online, depois as ferramentas de IA perturbaram o seu modelo, levando a despedimentos massivos e a uma queda abaixo de $2, com mudanças mais amplas impulsionadas por IA a atingirem também os mineradores de cripto e as empresas de fintech.
Resumo expandido: Este artigo analisa a ascensão da Chegg como a queridinha do edtech na era da pandemia e a sua subsequente queda face à rápida adoção da IA generativa, que fornece respostas rápidas e enfraquece a proposta de valor da Chegg. Descreve os despedimentos de 2025 e a queda das ações rumo ao cancelamento de cotação, e enquadra a experiência da Chegg num contexto mais amplo de disrupção por IA que está a remodelar a tecnologia e a cripto: os mineradores de Bitcoin fazem a transição para operações de IA, e as estratégias nativas de IA redefinem a competitividade em fintech e além.
CryptoFrontier5h atrás
Receita da Tesla no 1.º trimestre sobe 16%, mas investimentos em IA e robótica aumentam as despesas operacionais em 37%
Tesla Q1: a receita subiu 16% para 22,4 mil milhões de dólares com $477M lucro líquido, mas as margens desceram para 4,2%. Entregas 358k vs 370k. S/X foi descontinuado para o Optimus; Cybercab e Semi previstos para 2026; planeada a fábrica de chips da SpaceX.
Resumo: Este artigo resume os resultados do primeiro trimestre da Tesla e a perspetiva estratégica. A receita subiu para 22,4 mil milhões de dólares com $477M lucro líquido, ainda assim as margens operacionais diminuíram devido a grandes investimentos no Optimus, na tecnologia de condução autónoma e em chips de IA. A empresa está a descontinuar o S/X para apoiar o Optimus, mira a produção em volume do Cybercab e do Semi até 2026 e planeia uma grande instalação de fabrico de chips com a SpaceX.
GateNews6h atrás