1

熱搜:

熱門行情

最近搜尋

全部刪除

Google準備了十年!開啟對外銷售TPU、挑戰輝達在AI計算市場的霸主地位

鉅亨網新聞中心
Google準備了十年!開啟對外銷售TPU、挑戰輝達在AI計算市場的霸主地位。(圖:Shutterstock)
Google準備了十年!開啟對外銷售TPU、挑戰輝達在AI計算市場的霸主地位。(圖:Shutterstock)

9 月 3 日,科技圈傳出震撼消息,Google(GOOGL-US) 正式對外銷售自家 AI 專用處理器 TPU,使 Google 與輝達 (NVDA-US) 在 AI 計算領域的直接競爭正式開啟。

據報導,Google 已主動接觸多家主要依賴輝達 GPU 的小型雲服務提供商,鼓勵他們在數據中心部署 TPU。首批合作對象之一是總部位於倫敦的 Fluidstack,雙方將在紐約數據中心部署 TPU。

同時,Google 也向其他輝達核心用戶尋求合作,包括為 OpenAI 建造數據中心的 Crusoe,以及與 OpenAI 簽有供應合約、向微軟租賃晶片的 CoreWeave (CRWV-US) 。這顯示 Google 正在積極將 TPU 市場推向輝達主導的合作夥伴網絡。

9 月 9 日,花旗分析師因 TPU 競爭加劇,將輝達目標股價下調至 200 美元,並預計 2026 年 GPU 銷售額可能因此減少約 120 億美元。

專家指出,Google 與輝達的核心爭奪,是 AI 計算這個潛在萬億美元的市場。

Google TPU 研發歷程與技術特點

實際上,Google 對 TPU 的研發遠早於外界認知。早在 2006 年,Google 內部就討論過在自家數據中心部署 GPU、FPGA 或 ASIC 的可能性,但當時計算應用受限,算力充足,計畫暫停。

2013 年,隨著語音搜索與深度神經網路的應用增加,Google 意識到數據中心算力需求快速增長,僅靠擴展數據中心無法滿足成本與效率需求,因此 TPU 設計計畫正式啟動。

TPU 作為專為 AI 計算設計的 ASIC 晶片,追求高矩陣乘法吞吐量與卓越能效。硬體採用「脈動陣列」(Systolic Array)架構,使數據在陣列內高度復用,降低對高延遲主存的依賴。

軟體層面透過提前編譯(Ahead-of-Time Compilation)降低能耗,提升整體性能。Google 主導架構設計,博通 (AVGO-US) 參與部分中後端設計,晶片由台積電 (2330-TW) 代工生產。

Google TPU 產品與生態發展

自 2015 年首代 TPU 問世以來,Google 持續更新。TPU v2 引入 BF16 數據格式與高頻寬記憶體,並首次構建 TPU Pod 系統;v3 增加計算單元並採液冷技術提升性能;v4 引入光學電路交換技術(OCS),提升大規模 AI 計算效率;v5 與 v6 形成針對性能與能效的分化策略。

2025 年,Google TPU 全年出貨量預計達 250 萬片,其中 v5 系列占 190 萬片,v6 系列 60 萬片。整體 TPU 銷量預計於 2026 年突破 300 萬片。

Google 第七代 TPU「Ironwood」亮相

今年 Google 雲大會上,Google 發表第七代 TPU,代號「Ironwood」,峰值算力達 4614 TFLOPs,記憶體 192GB,頻寬 7.2 Tbps,每瓦峰值算力 29.3 TFLOPs,並首次支持 FP8 計算格式。

Ironwood 最高配集群可容納 9216 顆液冷晶片,峰值算力達 42.5 ExaFLOPS,是世界最大超級電腦 El Capitan 的 24 倍以上。

除了硬體性能,Google 還提供 JAX 高性能計算 Python 庫與模型流水線解決方案「Pathway」,幫助開發者高效訓練大型語言模型(LLM),如 Gemini 系列。

Google 通過整套硬體與生態布局,已具備與輝達在 AI 計算市場掰手腕的實力。隨著 AI 計算需求急速增長,TPU 與 GPU 的競爭,將深刻影響未來人工智慧產業格局。

相關貼文

left arrow
right arrow