Google 正在重構其 AI 硬體帝國。為了應對日益增長的 AI Agent需求,Google 宣布將第八代 TPU 拆分為訓練與推理兩款專用晶片。這項專業化分工的戰略,不僅展現了 Google 對低延遲運算的極致追求,更向 NVIDIA 發出了強大的競爭訊號。

訓練與推理首度拆分:Google 的硬體架構典範轉移
為了迎接「Agent(AI Agents)元年」,Google 決定打破過往通用型晶片的慣例。第八代 TPU 首度將「訓練」與「推理」任務徹底分配至不同架構的處理器中。新款訓練晶片的效能較上一代 Ironwood TPU 提升達 2.8 倍,而代號為 TPU v8i 的推理專用晶片,則透過專門的電路優化,大幅縮短了複雜模型的響應延遲,展現了 Google 在算力需求垂直整合上的強大野心。
TPU v8i 最核心的競爭力在於其搭載了驚人的 384MB SRAM,容量是前代產品的三倍。這項技術路徑與近期備受矚目的算力新秀 Groq 不謀而合,旨在將模型參數盡可能存儲在更靠近運算單元的地方,避開傳統 DRAM 帶來的存取瓶頸。Alphabet 執行長皮查伊強調,這種高吞吐量的架構,是為了滿足未來「同時運行數百萬個Agent」的底層物理需求,力求讓 AI 的反應速度與人類同步。

雲端算力生態的垂直佈局
Google 不僅是 NVIDIA 的大客戶,更正透過自研 TPU 發展成為其最危險的對手。目前包括知名量化交易公司城堡證券(Citadel Securities)與 AI 巨頭 Anthropic,皆已承諾將使用數吉瓦(GW)量級的 Google TPU 算力。專業化晶片意味著更低的單位營運成本與更快的推論速度,這對追求即時互動的 AI 應用(如即時翻譯、自駕決策)至關重要,Google 正在鞏固其在全球雲端 AI 硬體市場的吸磁能力。
- 延伸閱讀:傳 Google 將向 Meta 出售 AI 晶片!挑戰 NVIDIA 地位,TPU 首度開放本地部署
- 延伸閱讀:AI 晶片戰局升溫!大摩:Google TPU 外銷若成真,2027 年營收恐增 4,200 億
- 延伸閱讀:Google「憋三年」全面反擊?Gemini 3、TPU 進場,英特爾、OpenAI 都感到壓力
請注意!留言要自負法律責任,相關案例層出不窮,請慎重發文!