AI動能全面引爆 軟硬體、CSP與記憶體產業同步成長
Al 功能不斷提升,推動 Al 軟體、硬體及服務快速成長
IEK 機構預估 2024 年的 1,876 億美元成長至 2028 年的 7,630 億美元,年複合成長率達 42%。AI 軟體市場從 1,034 億美元擴大至 4,400 億美元,CAGR44%,整體 Al 市場比重將由 55% 提升至 58% 最為關鍵。不同硬體應用領域. 運算用電子對 Al 需求高,預估 2024 年的 440 億美元成長至 2028 年的 1219 億美元,年複合成長率達 29%,占比 62%。
消費者 AI 黏著度逐步提升
街口投信表示 ChatGPT 等 Al 應用陸續推向市場,各大業者紛紛開始研發自有超級大模型,包括 Gemini(Google)、Claude(Anthropic)、Llama(Meta)等,各大品牌開始大舉投入大型語言模型 (LLM) 市場,且每一個產品的智慧皆持續提高,部分消費者也陸續從 ChatGPT 陣營轉移至 Gemini 陣營,反映出消費者開始逐漸提升對 AI 的黏著度。
根據 Grand View Research 調查,2024 年全球 AI 市場營收預估約 2792 億美元,預估 2030 年市場規模超過 3 兆美元,擁有超過 30% 的年複合增長率。
美系 CSP 擴大資本支出 AI 需求持續暢旺
街口中小型基金經理人吳帛亞分析,4 大 CSP 業者表示 AI 需求暢旺,持續投資基礎建設、AI 相關研發以因應市場需求;4 大 CSP 業者中,2026 年 Meta 預期年增高達 53.6% 達 1090 億美元,成長最大。其次 Microsoft 預期年增 35.8% 達 1032 億美元。2025/26 年 4 大 CSP 年增 58.4%/30.6%,均比上一季調高。
預期 2026 年 GB300 伺服器總出貨量將落在 5.5 萬櫃、年增 129%,其中 Microsoft、Meta、Oracle、DELL 的拉貨最積極,且部分 GB300 伺服器機櫃已經於 10 月開始由鴻海及廣達小量出貨。Google 及 AWS 預計需求為 3000-4000 櫃,其中 AWS 的 GB300 客製化程度極高,相較於其他人採用 1U 機殼及 NVL72 架構,AWS 仍採用 2U 機殼架構的 NVL36。Google 則是穩定採購 GB300 凸顯出其致力研發自身 ASIC 晶片的決心。
ASIC 伺服器成發展重點,2026 供應新動能
2026 年美國三大 CSP 業者 (Google、AWS、Meta) 的自研 AI 晶片出貨量預計將達到 710 萬個,較 2025 年持續擴大。其中,Google TPU 的出貨量最為驚人,預計將貢獻 350 萬個、年增 66%,佔據 ASIC 市場的主導地位,緊接其後的是 AWS Trainium,預計出貨 250 萬個,而 Meta MTIA 則將達到 110 萬個,並呈現 1100% 的爆發式成長。
預期 ASIC 的大規模部署將大幅拉升液冷散熱的採用比重,除了 AWS 的水冷採用比重預估在 20-30% 外,Google 和 Meta 兩大 CSP 業者皆傾向於全面採用水冷散熱模式,這將直接帶動水冷供應鏈 (如奇鋐、雙鴻、台達電等) 的出貨量在 2026 年再次強勁成長。
在散熱材料端,Google 也在積極探討將傳統導熱介面材料 (Tim2) 改為使用鋼片 (Indium) 的可能性,主要在於優化晶片與散熱模組間的熱傳導效率,目前相關設計正在認證中,顯示 CSP 業者對極致散熱解決方案的投入不斷深化。
記憶體供需仍緊 AI 推論需求成關鍵
在目前的 AI 訓練階段,HBM 對於支援滿足龐大算力需求的 GPU 至關重要。AI 伺服器 BOM 中,HBM 在總成本中的占比從 2022 年的 2% 增加到 2025 年的 11%。進入 AI 代理階段,任務的高度複雜性將需要更強大的 CPU 進行任務管理和執行,因此該任務將趨動對傳統 server DRAM 的需求增長。
集邦科技預估 2026 年伺服器出貨量雖僅 YoY+7%,但平均 DRAM 容量 YoY 預料增加 26%,因此 server DRAM 需求位元預期將年增 35%。
4Q25 以來的記憶體短缺主因是 AI 推論(Inference)階段的強勁需求,除了帶動資料中心對高頻寬記憶體(HBM)和伺服器記憶體模組(RDIMM)的需求激增之外;相關資料存取量遠超過 AI 訓練階段,帶動冷資料與溫資料需求同步增加。
AI 伺服器在推論階段需更多 DDR5 記憶體,並須處理 TB 級資料,因此僅靠 DRAM 或 HBM 無法承載,從而使得高容量 HDD 與 SSD 也同步出現供應吃緊。
DRAM 產業的年度總資本支出預計在 2025 年達到 537.14 億美元,並在 2026 年攀升至 613 億美元,YoY 約 14%,數字仍顯溫和。
至於 NAND Flash 產業,年度總資本支出預計在 2025 年達到 211 億美元,並在 2026 年小幅增加至 222 億美元,YoY 僅約 5%。
主要 DRAM 和 NAND Flash 供應商在記憶體售價高漲的當下,仍維持高度的投資紀律,甚至傳統技術的記憶體投資受到 HBM、DDR5 等先進技術投資的排擠,整體增幅僅賴二線廠商 (南亞科、華邦電與中國業者等) 之投資支持。
市場觀點與投資動向
街口中小型基金經理人吳帛亞認為,隨著美股科技股回穩,市場對聯準會 12 月降息預期重返高機率,美中貿易協議取得共識,台股加權指數逐步站回 5、10、20 日等短期均線,伴隨權值股聯發科強勢反彈,顯示多方信心回籠,櫃買指數也明顯轉強單周內站回季線。
AI 資本支出的持續擴張已明確帶動台灣 AI 供應鏈企業的獲利能力。過去兩個月 AI 股與台股企業盈餘展望持續獲得上修。營運現金流充裕支撐大型 CSP 持續擴張資本出。TEJ 台股 2026 年盈餘預估在過去兩個月由年增 11% 上修至年增 20%,相較 2025 年之年增 11% 顯著擴大,留意融資水位對股市震盪的潛在影響。
在投資策略上,科技股自高檔輪流修正,幅度有限,街口中小型基金趁勢逢低分批布局 AI 相關族群。
* 以上所提及之個股或公司,僅供作為說明或舉例之用途,並非推薦或投資建議。
街口證券投資信託股份有限公司
114 年金管投信新字第 010 號/台北市松山區長安東路二段 225 號 C 棟 9 樓/台北 (02)2750-5555
【街口投信獨立經營管理】本基金經金管會核准或同意生效,惟不表示絕無風險。基金經理公司以往之經理績效不保證基金之最低投資收益;基金經理公司除盡善良管理人之注意義務外,不負責本基金之盈虧,亦不保證最低之收益,投資人申購前應詳閱基金公開說明書及風險預告書。銷售機構有本基金公開說明書備索,投資人或可至本公司網站及公開資訊觀測站查詢。本基金投資無受存款保障、保險安定基金或其他相關機制之保障,投資人需自負盈虧。基金投資可能產生的最大損失為全部本金。投資人申購本基金係持有基金受益憑證,而非本文提及之投資資產或標的。有關投資人及基金應負擔之費用已揭露於基金之公開說明書中,投資人可至前揭網站查詢。本文提及之經濟走勢預測不必然代表本基金之績效,本基金投資風險請詳閱基金公開說明書。投資人因不同時間進場,將有不同之投資績效,過去之績效亦不代表未來績效之保證。本基金風險報酬等級為 RR5,為國內股票型基金,適合能承受較高風險之積極型投資人。RR5 係計算過去 5 年基金淨值波動度標準差,以標準差區間予以分類等級,此等級分類係基於一般市場狀況反映市場價格波動風險,無法涵蓋所有風險 (如:基金計價幣別匯率風險、投資標的產業風險、信用風險、利率風險、流動性風險等),不宜作為投資唯一依據,投資人仍應注意所投資基金個別的風險。街口投信已就可靠資料或來源提供適當之意見與消息,但不保證資料來源之完整性,如有任何遺漏或疏忽,請即通知本公司修正,本公司或關係企業與其任何董事或受僱人,對此不負任何法律責任。