1

熱搜:

熱門行情

最近搜尋

全部刪除

不能一家獨大!輝達需求「爆表」但AI巨頭掀自研晶片潮 台積電反成最大贏家

鉅亨網編譯許家華
(圖:REUTERS/TPG)
(圖:REUTERS/TPG)

輝達 (NVDA-US) 最新財報再度超出市場所有預期,憑藉在人工智慧運算領域占據主導地位的圖形處理器(GPU),其獲利與銷售表現「爆表」式成長。然而,隨著 AI 應用多樣化,市場競爭正快速擴大,更多科技巨頭開始打造自家專用人工智慧晶片,降低對輝達的依賴。

此類晶片以客製化 ASIC(專用積體電路)為主,包括 Google(GOOGL-US) 的 TPU、亞馬遜 (AMZN-US) AWS 的 Trainium,以及 OpenAI 與博通(AVGO-US) 合作、預計 2026 年投入生產的 AI 晶片。Futurum Group 的 Daniel Newman 甚至預測,未來幾年 ASIC 的成長速度將比 GPU 市場更快。

ASIC 藉由將單一任務的運算結構直接寫入矽片,可在推論與特定 AI 演算法上展現極高效率,儘管靈活度不及 GPU,但在雲端客戶擁有足夠規模前提下,長期成本效益更好。

AI 晶片市場同時也有 FPGA(可程式化邏輯晶片)這類可依需求重新設定的產品,雖然效能與能耗比不如 ASIC,但具備更高彈性,可用於網路、訊號處理及 AI 推論等多種場景。

此外,另有一類專為裝置端打造的 AI 晶片,讓 AI 不必回傳雲端便能在手機、PC、車載系統甚至家電中本地執行。蘋果 (AAPL-US) 在 M 系列與 iPhone A 系列晶片中加入神經引擎;高通 (QCOM-US)、三星、英特爾(INTC-US) 與 AMD (AMD-US) 也在筆電與 Android 裝置中大量搭載 NPU,以降低延遲並提升隱私性。

輝達與 AMD 的 GPU 仍是雲端數據中心的主力運算平台。輝達依靠 CUDA 軟體生態系,將 GPU 打造成 AI 訓練與推論的標準設備。大型雲端提供者如亞馬遜、微軟 (MSFT-US)、Google、甲骨文 (ORCL-US) 及 CoreWeave 都向輝達與 AMD 採購 GPU,再租用給 AI 開發者。Anthropic 與輝達、微軟合作的 300 億美元協議包括 1 GW 的輝達 GPU 算力,而 OpenAI 近期也向輝達採購至少 400 萬顆 GPU。國際政府也在大量採購,包括南韓、沙烏地阿拉伯與英國。

同時,各大科技公司持續擴展自研晶片能力。Google 自 2015 年推出第一代 TPU 起,至 2024 年已邁入第七代,Anthropic 計畫使用最多 100 萬顆 TPU 訓練 Claude 模型。AWS 則自 2018 年起推出 Inferentia,再於 2022 年發布 Trainium,Trainium 的架構師表示其產品在 AWS 上能提供比其他硬體高 30% 至 40% 的性價比。AWS 目前已在印第安納最大 AI 數據中心以 50 萬顆 Trainium2 執行 Anthropic 的訓練,但其他數據中心依然配備大量輝達 GPU 以因應需求。

Meta(META-US)、微軟、特斯拉 (TSLA-US) 及多家新創(Cerebras、Groq)也投入客製化 AI 晶片市場。中國方面,華為、字節跳動與阿里巴巴也在研發自家 ASIC,但受到先進設備與高效能晶片出口管制限制。

在硬體製造端,所有這些晶片,無論是 GPU、ASIC、FPGA 或 NPU,幾乎都依賴台積電代工生產。

台積電在亞利桑那的新廠正逐步量產,蘋果計畫在當地生產部分晶片,輝達執行長黃仁勳亦在 10 月宣布 Blackwell GPU 已在亞利桑那全面量產。

儘管 AI 晶片市場朝多元化快速演進,各大企業都在降低對輝達 GPU 的依賴,但專家普遍認為短期內輝達難以被撼動。輝達以 CUDA 生態系累積多年軟體與開發者領先優勢,完整的工具鏈與支援能力形成強大護城河。

Newman 認為,輝達今日的主導地位不是偶然,而是多年累積的成果,「他們贏得了開發者生態系,這是最難被複製的部分。」

相關貼文

left arrow
right arrow