Google Ironwood TPU:10 倍效能 + 四家夥伴對抗 Nvidia

鏈新聞abmedia

根據 Bloomberg 深度報導與 Google 官方公告,Google 於 4 月 22 日正式擴張自研 AI 晶片陣容:推理專用 Ironwood(第七代 TPU)在 Google Cloud 全面供應,並同步啟動與 Broadcom、MediaTek、Marvell、Intel 四家夥伴的下世代設計合作,目標是以客製晶片供應鏈正面挑戰 Nvidia 在 AI 算力市場的主導地位。

Ironwood:第七代 TPU,首度專為推理設計

Ironwood 是 Google TPU 系列第七代產品,也是首款「訓練推理分流」策略下的推理專用晶片。Google 揭露的規格:單晶片尖峰效能為 TPU v5p 的 10 倍,配置 192GB HBM3E 記憶體、記憶體頻寬達 7.2 TB/s,單個 superpod 可擴展至 9,216 顆液冷 Ironwood,合計 FP8 運算量達 42.5 exaflops。

Google 官方表示 Ironwood 已「全面開放 Google Cloud 客戶使用」,今年出貨量預計達「百萬顆」等級。Anthropic 已承諾採用多達 100 萬顆 Ironwood TPU,Meta 則簽署「數十億美元多年合約」透過 Google Cloud 使用 TPU。

四家夥伴分工:訓練歸 Broadcom、推理歸 MediaTek

Google 下世代晶片供應鏈明確分工如下:

夥伴 代號 角色 特色 Broadcom Sunfish 訓練專用 延續既有 TPU 合作關係,主導大型訓練節點 MediaTek(聯發科) Zebrafish 推理專用 宣稱比 Broadcom 方案成本低 20–30% Marvell 談判中 記憶體處理單元(MPU)+ 額外推理 TPU 為 HBM 與 inference 優化 Intel 未公開 參與設計 強化供應鏈分散

這是 AI 產業中首見的「四家夥伴並行、訓練推理明確分工」模式。Google 透過分散 IP 風險與競爭議價,避開 Nvidia 單一供應商的結構依賴。路線圖延伸至 2027 年底的 TPU v8,將於台積電 2nm 製程生產。

策略意義:挑戰 Nvidia 的不是單晶片,而是供應鏈

過去三年 AI 晶片市場由 Nvidia 近乎壟斷,CUDA 軟體生態與 H100/GB200 晶片構成雙重護城河。Google 的 Ironwood 與四夥伴策略並非以「單點規格超越」為目標,而是複製 Nvidia 在產業中的「標準化平台 + 多客戶採購」邏輯——讓 TPU 不只是 Google 自用,而是可被 Anthropic、Meta 等主要 AI 公司共用的商業化算力選項。

Anthropic 承諾 100 萬顆 TPU 的意義尤其關鍵:這是 Nvidia 以外單家 AI 公司最大算力承諾,與 Anthropic 4/20 與 Amazon 達成 5GW/1000 億 AWS 承諾形成互補——一邊綁定 AWS Trainium、一邊綁定 Google TPU,Anthropic 以「雙客製晶片」策略降低 Nvidia 依賴。Meta 則是首次公開將 TPU 納入自家 AI 訓練/推理工作負載,形成另一道訊號。

市場反應與產業連動

聯發科在此次揭露前已被視為「Google 客製晶片受益者」,Zebrafish 代號的曝光是首度將聯發科直接列為 Google 推理晶片設計夥伴。這延伸近期 AMD × GlobalFoundries 矽光子、Marvell × Google MPU 的「非 Nvidia 晶片聯盟」敘事線。

Nvidia 於同期仍有 GB200 與下世代 Rubin 平台支撐,但客戶端的算力組合正從「全 Nvidia」走向「Nvidia + TPU + AWS Trainium」的三軌並行。這對台積電 2nm 產能也意味著 Google、Nvidia、Apple、Amazon 四大客戶都在排隊,晶圓代工供應議價力持續上升。

這篇文章 Google Ironwood TPU:10 倍效能 + 四家夥伴對抗 Nvidia 最早出現於 鏈新聞 ABMedia。

免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明

相關文章

OpenClaw、Hermes 與 SillyTavern 已確認獲 GLM Coding Plan 支援

智譜 AI 產品經理 Li 宣布 OpenClaw、Hermes 和 SillyTavern 作為支援的 GLM Coding Plan 專案;其他工具將依個案評估。請勿分享憑證,或將訂閱用作 API 存取;遇到錯誤 1313 請聯繫客服。 智譜 AI 產品經理 Li 宣布,OpenClaw、Hermes 和 SillyTavern 已正式列入 GLM Coding Plan 的支援專案,其它工具將依個案評估。該項公告提醒使用者不要分享憑證或將訂閱用作 API 存取,並告知遇到錯誤 1313 的使用者聯繫客服。

GateNews9分鐘前

Google Cloud 執行長:Gemini 將於 2026 年驅動 Apple 個人化 Siri 的推廣

摘要:Gemini 將在 2026 年為個人化的 Apple Siri 提供動力,並基於 Apple 的 Foundation Models,且在 Gemini 協作推動下;Apple 正在 iOS 27/macOS 27 中測試一款類聊天的 Siri,預定於 2026 年 WWDC 揭曉。 摘要:Google Cloud 的 Gemini 預計將在 2026 年為個人化的 Apple Siri 提供動力,透過將 Gemini 與 Apple 的 Foundation Models 結合,形成約 $1 billion 的合作關係。Apple 正在測試一款重新設計、類聊天的 Siri,應用於 iOS 27/macOS 27,並採用 Dynamic Island 介面及新功能,該內容將於 6 月 8 日的 2026 年 WWDC 揭幕前推出。

GateNews40分鐘前

SpaceX-Cursor $60B 交易 為 SBF 的赦免論點 提供新證據

摘要 SpaceX 宣布與 $60 billion 的 Cursor 合作,並設有收購選項,將塑造 SBF 的赦免申請;而 Alameda 的早期 Cursor 持股以今日計算約值 $3 billion。該報導權衡了 SBF 的資不抵債主張、父母的公開宣傳、債權人的反對,以及赦免機率偏低的現實。 摘要 SpaceX-Cursor 交易推動 SBF 赦免申請;Alameda 的 $200k 持股將約為 $3B 今天 (15,000x)。SBF 主張 FTX 資不抵債;市場顯示赦免機率很低;川普不太可能赦免。

GateNews48分鐘前

Chegg 股價暴跌 99%,因 AI 正在顛覆教育科技市場

摘要:Chegg 在線上教育需求帶動下飆升,隨後 AI 工具擾亂其商業模式,導致大規模裁員,股價跌破 2 美元並陷入崩跌;而更廣泛由 AI 推動的轉變也衝擊了加密貨幣礦工與金融科技公司。 摘要:本文探討 Chegg 如何從疫情時代的教育科技寵兒崛起,並在生成式 AI 快速普及之際走向衰落;生成式 AI 能提供快速答案,削弱了 Chegg 的價值主張。文章記錄了 2025 年的裁員,以及股價朝退市方向的暴跌,並將 Chegg 的經歷置於更大範圍的 AI 破壞之中:改變科技與加密領域的格局——比特幣礦工轉向 AI 運營,而以 AI 為原生的策略則重新定義金融科技及其他領域的競爭力。

Crypto Frontier58分鐘前

OpenAI 發布開源隱私過濾器模型,用於偵測與遮蔽 PII

摘要:OpenAI 的隱私過濾器(Privacy Filter)是一個開源、可在本機執行的模型,用於偵測並遮蔽文字中的個人可識別資訊(PII)。它支援大型上下文,能辨識多種 PII 類別,並用於以隱私保護為導向的工作流程,例如資料準備、索引、記錄(logging)與內容審查(moderation)。 OpenAI 的隱私過濾器是一個在本機運行的開源模型 (128k-token context),可偵測並遮蔽文字中的 PII,涵蓋隱私工作流程所需的聯絡、金融與憑證資料。

GateNews1小時前

OpenAI 計劃在 2030 年前部署 30GW 的運算能力

OpenAI 目標在 2030 年前達到 30GW 的運算能力,以滿足日益增長的 AI 需求;其中 10GW 的 2025 年目標已完成 8GW。這次擴張顯示出一項策略,即擴大基礎設施規模,以支援下一代 AI 的開發與部署。 OpenAI 打算在 2030 年前達到 30GW 的運算能力,以因應不斷成長的 AI 需求;目前已完成 10GW、2025 年目標中的 8GW。此舉反映了 OpenAI 為支援下一代 AI 的開發與部署而進行的基礎設施策略性擴張。

GateNews1小時前
留言
0/400
暫無留言