一文讀懂輝達秋季GTC:入股諾基亞、抱團Uber、實現美國量產

在本屆秋季 GTC 大會 上,輝達 (NVDA-US) 執行長黃仁勳系統性展示了公司在 GPU 加速計算、AI 超級計算、量子融合運算及自動駕駛、電信與製藥領域 AI 工廠的最新布局。
他透露,Blackwell GPU 已實現美國量產,並將在國內完成整機組裝,預計出貨將達 2,000 萬顆,並將與下一代 Rubin 平台合計帶來數千億美元 GPU 銷售額。
黃仁勳同時宣布,輝達正推動 NVQLink 量子 - GPU 互聯技術、打造七座 AI 超算集群,並與諾基亞 (NOK-US) 、Crowdstrike(CRWD-US) 、Palantir(PLTR-US) 、Uber (UBER-US) 、禮來 (LLY-US) 等企業合作,開啟 AI 原生 6G、生成式 AI 安全、Robotaxi、自動化製藥與 AI 工廠的全新應用時代。
從 CUDA-X 軟體生態 到 Omniverse DSX 工廠藍圖,輝達正全面構建面向未來的 加速計算與 AI 生態,標誌著計算架構從 CPU 主導向 GPU 加速的歷史性轉型已正式到來。
計算架構的范式轉移:從 CPU 主導走向 GPU 加速時代
在演講中,黃仁勳回顧了計算產業的重要轉折。數十年來,CPU 性能一直遵循可預測的增長軌跡,但隨著登納德縮放定律(Dennard scaling) 逐漸失效,傳統的 CPU 發展路徑正面臨瓶頸。
該定律原本指出,電晶體尺寸持續縮小可維持功率密度,同時降低能耗並提升性能。
面對這一挑戰,輝達提出的解決方案是:並行計算、GPU 與加速計算架構。
黃仁勳表示:「轉折點已經到來,輝達已做好準備。我們認識到,透過引入能充分利用指數級增長電晶體的處理器,結合並行計算技術,並與順序處理的 CPU 協同工作,計算能力將邁入全新維度。這個時代確實已經到來。」
加速計算的實現,離不開輝達精心打造的 CUDA-X 全棧加速庫。它涵蓋了深度學習領域的 cuDNN 與 TensorRT-LLM,數據科學平台 RAPIDS(cuDF/cuML),決策優化工具 cuOpt,計算光刻解決方案 cuLitho,以及量子與混合計算框架 CUDA-Q 與 cuQuantum 等關鍵領域。
黃仁勳將這套完整的軟體生態系統譽為「公司最珍貴的寶藏」,構成輝達加速計算戰略的技術核心,為各行各業的計算變革提供底層動力。
Rubin 計算架構實現無纜全液冷、NVL144 平台性能較 GB300 提升近 4 倍
輝達最新 Vera Rubin 計算托盤就展示了尖端的無纜全液冷設計,推理性能最高可達 440 Petaflops。
每個托盤底部配置 8 顆 Rubin CPX GPU、BlueField-4 數據處理器、兩顆 Vera CPU 及 4 個 Rubin 封裝,所有 GPU 均實現無纜互連與全液冷散熱。
Rubin GPU 採用兩個 Reticle 尺寸晶片,FP4 性能最高可達 50 Petaflops,配備 288GB 下一代 HBM4 記憶體。
Vera CPU 採定制化 Arm(ARM-US) 架構,擁有 88 核心、176 線程,NVLINK-C2C 互連速度最高可達 1.8 TB/s。
系統透過 NVLink 交換機 實現所有 GPU 的同步資料傳輸,Spectrum-X 以太網交換機確保處理器通信無阻塞,再結合 Quantum 交換機,整個平台完全兼容 InfiniBand、Quantum 與 Spectrum Ethernet。
輝達 Vera Rubin NVL144 平台 的 FP4 推理性能達 3.6 Exaflops,FP8 訓練能力為 1.2 Exaflops,相較於 GB300 NVL72 提升 3.3 倍。
HBM4 記憶體速度達 13 TB/s,快速記憶體容量達 75TB,較 GB300 提升 60%。NVLINK 與 CX9 能力分別提升至 2 倍,速率最高可達 260 TB/s 與 28.8 TB/s。
每個 Rubin GPU 配置 8 個 HBM4 記憶體站點與兩個 Reticle 尺寸 GPU 裸片,主板配備 32 個 LPDDR 系統記憶體站點,與 Rubin GPU 的 HBM4 記憶體協同工作,每個晶片周圍布置大量電源電路。
輝達計劃於 2027 年下半年推出第二代 Rubin Ultra 平台,將 NVL 系統規模從 144 擴展至 576。
Rubin Ultra GPU 採用四個 Reticle 尺寸晶片,FP4 性能最高可達 100 Petaflops,HBM4e 總容量達 1TB,分布於 16 個 HBM 記憶體站點。
Rubin Ultra NVL576 平台的 FP4 推理性能將達 15 Exaflops,FP8 訓練能力為 5 Exaflops,較 GB300 NVL72 提升 14 倍。
HBM4 記憶體速度達 4.6 PB/s,快速內存容量達 365TB,較 GB300 提升 8 倍。NVLINK 與 CX9 能力分別提升 12 倍與 8 倍,速率最高可達 1.5 PB/s 與 115.2 TB/s。
第二代平台的 CPU 架構與 Vera Rubin 保持一致,延續 88 核心 Vera CPU 配置。
本土製造戰略:Blackwell 晶片實現美國量產
在產業布局方面,黃仁勳也透露了重要進展:Blackwell GPU 已在美國亞利桑那州實現規模化生產,基於該晶片的整機系統也將在美國完成組裝。
這一舉措標誌著輝達成功將旗艦產品的製造環節,從完全依賴台積電 (2330-TW) 代工,轉向美國本土供應鏈,增強了其在國內科技生態中的自主性。
黃仁勳還公布驚人出貨數據:輝達預計將出貨 2,000 萬顆 Blackwell 晶片,而上一代 Hopper 架構晶片在整個生命周期內僅出貨 400 萬顆。
在市場表現方面,黃仁勳指出 GPU 需求持續旺盛:過去四個季度,輝達已出貨 600 萬顆 Blackwell GPU,預計 Blackwell 與下一代 Rubin 晶片的總銷售額將達到 5000 億美元規模。
此外,本月早些時候,輝達與台積電宣布,首批 Blackwell 晶圓已在美國亞利桑那州鳳凰城工廠生產。
輝達表示,基於 Blackwell 的整機系統也將在美國完成組裝,進一步強化本土供應鏈布局。
輝達投資 10 億美元入股諾基亞 推動 AI 原生 6G 技術
在本週華盛頓 GTC 大會上,黃仁勳還將焦點放在國家安全與經濟命脈上,強調電信技術是經濟與國家安全的核心,但全球無線技術部署仍高度依賴他國技術。
他指出:「這種核心通訊技術受制於人的局面必須終結,而現在我們迎來了扭轉局面的歷史性機遇。」
為實現這一戰略目標,輝達推出了革新的輝達 ARC AI 原生 6G 技術棧,基於 Aerial 平台構建,融合 Grace CPU、Blackwell GPU 及先進網路組件,透過加速計算實現性能突破。
黃仁勳透露,輝達已與通信設備巨頭諾基亞達成深度戰略合作,計畫將商用級 AI-RAN 產品整合到諾基亞的無線接入網(RAN)產品組合中,使通訊服務商能夠部署 AI 原生的 5G-Advanced 與 6G 網路。
作為合作的一部分,輝達將以每股 6.01 歐元的價格認購 1.664 億股諾基亞新股,總投資額達 10 億美元。
雙方合作的核心項目包括推出 Aerial RAN Computer(ARC)計算平台,賦能 6G 網路轉型,並支援 AI 驅動的機器人精準操控、高精度氣象預測,以及自動駕駛、無人機、增強與虛擬實境等應用。
黃仁勳強調,AI 與 6G 的結合不僅提升頻譜效率,也為超高速雲端運算與邊緣 AI 推理提供平台,開啟電信與科技新藍海。
分析機構 Omdia 預測,到 2030 年,AI-RAN 市場規模將累計超過 2000 億美元。
輝達與諾基亞的合作,也將與 T-Mobile 美國公司共同推動技術測試與開發,預計 2026 年開始驗證性能與效率,為電信營運商開拓高成長應用場景。
NVQLink:輝達推動量子計算與 GPU 融合
在 GTC 大會上,黃仁勳回顧了量子計算的歷史根源,提及四十年前理查德 · 費曼的設想,即創建能夠直接模擬自然規律的量子電腦。
他指出,現今科學家已能製備穩定、具備糾錯能力的邏輯量子比特,但這些量子比特極其脆弱,需要強大的技術支援來進行量子糾錯與狀態解讀。
為了實現量子計算與 GPU 計算的無縫融合,輝達推出 NVQLink 量子 - GPU 互聯技術。該技術能讓量子處理單元即時調用 CUDA-Q 計算框架,將通信延遲降至約 4 微秒。
黃仁勳表示,NVQLink 並非取代量子電腦,而是將量子計算與 GPU 超級電腦協同工作,加速計算速度,並支援量子比特的糾錯與算法分配。
在現場演示中,大螢幕展示了包括 17 家量子計算企業及多個美國能源部實驗室的協同網路。
黃仁勳指出,「幾乎所有美國能源部下屬實驗室都在與我們的量子計算生態系統合作,將量子計算納入未來科學發展藍圖」。
NVQLink 已獲包括 Alice & Bob、Atom Computing、IonQ (IONQ-US) 、IQM Quantum Computers、Quantinuum、Rigetti (RGTI-US) 等 17 家量子處理器廠商及 5 家控制器製造商的支持。
美國能源部旗下 9 個國家實驗室也將運用 NVQLink 推動量子計算突破,包括布魯克海文國家實驗室、費米實驗室、洛斯阿拉莫斯國家實驗室等。
黃仁勳強調,NVQLink 將幫助量子比特從現有的數百個規模擴展至數萬甚至數十萬個,並透過 CUDA-Q 軟體平台讓開發者創建和測試可同時調用 CPU、GPU 與量子處理器的應用程式。
他表示:「將量子計算直接連接到 GPU 超級電腦是計算的未來,也是實現量子化運算的關鍵。」
輝達與甲骨文合作,為美國能源部規劃新建七座 AI 超算集群
黃仁勳宣布,美國國家實驗室即將迎來由 AI 基礎設施驅動的科研新時代。
輝達與美國能源部(DOE)達成戰略合作,計畫共同建設七台新一代超級電腦,為未來科學研究提供強大算力支援。
在具體布局上,輝達聯合能源部及甲骨文,將在阿貢國家實驗室打造能源部體系內規模最大的 AI 超級計算機集群。
這一超算網路將包含兩大核心系統:Solstice 與 Equinox。
- Solstice 系統:將部署 10 萬顆輝達 Blackwell GPU,建成後將成為全球規模最大、面向公共研究領域的智能體科學平台。
- Equinox 系統:配備 1 萬顆 Blackwell GPU,提供高達 2,200 EFLOPS 的 AI 算力,專注於前沿科學計算、模擬仿真與開放研究。
此外,輝達還宣布與慧與 (HPE-US) 合作,為洛斯阿拉莫斯國家實驗室打造兩台基於 Vera Rubin 平台的新型超級計算機,用於國家安全及科學研究。
這也是 Vera Rubin 平台首次在實際場景中落地,該平台搭載輝達下一代 Vera CPU 與 Rubin GPU。
新設備將採用 NVLink Gen6 技術進行擴展,並結合 QuantumX 800 Infiniband 網路,實現超高速數據互連與運算擴展。
BlueField-4 推動 AI 工廠基礎設施升級
黃仁勳表示,代理式 AI 已不再只是工具,而是人們所有工作的助手,帶來「無限機會」。為此,輝達計劃打造專屬 AI 的工廠,內部將滿載先進晶片。
為呈現這一理念的實際成果,黃仁勳在舞台上展示了新一代輝達 BlueField-4 DPU。
BlueField-4 DPU 擁有高達 800Gb/s 的吞吐量,為千兆級 AI 基礎設施提供顛覆性加速能力。
與前代 BlueField-3 相比,BlueField-4 計算性能提升 6 倍,可支持的 AI 工廠規模擴大 3 倍,並結合 Grace CPU 與 ConnectX-9 網路技術,打造全新一代 AI 運算平台。
BlueField-4 專為新型 AI 儲存平台設計,能高效處理 AI 數據管道並提供大規模性能突破。該平台支持多租戶網路、快速數據訪問、AI 運行時安全與雲端彈性,並原生整合輝達 DOCA 微服務。
輝達透露,多家行業領導企業已計劃採用 BlueField-4 技術。伺服器與記憶體領域包括思科 (CSCO-US) 、DDN、戴爾 (DELL-US) 、慧與、國際商業機器 (IBM-US) 、聯想 (03396-HK) 、美超微 (SMCI-US) 、VAST Data 和 WEKA;網路安全領域企業則有 Armis、Check Point 軟體技術 (CHKP-US) 、思科、F5、ForeScout (FSCT-US) 、Palo Alto Networks (PANW-US) 及 Trend Micro。
此外,雲端與 AI 服務商如 Akamai 科技 (AKAM-US) 、CoreWeave(CRWV-US) 、Crusoe、Lambda、甲骨文、Together.ai 與 xAI,也正基於 DOCA 微服務構建解決方案,以加速多租戶網路、提升數據移動速度並強化 AI 工廠與超級計算雲的安全性。
預計 BlueField-4 將於 2026 年作為 Vera Rubin 平台的一部分推出早期版本。
輝達攜手 CrowdStrike 推動 AI 網路安全發展
輝達宣布,將與網路安全公司 CrowdStrike 建立戰略合作,在 Falcon XDR 平台上提供輝達的 AI 計算服務。
此合作將 Falcon 平台數據與輝達 GPU 優化的 AI 管道及軟體(包括全新 NIM 微服務)結合,使企業能建立定制化的生成式 AI 安全模型。
根據 2024 年 CrowdStrike 全球威脅報告,平均突破時間已降至 62 分鐘,最快的攻擊僅略超過 2 分鐘。
面對速度更快、手法更複雜的現代攻擊,企業亟需 AI 驅動的安全技術,以獲得必要的速度與自動化防護能力。
黃仁勳指出:「網路安全本質上是一個數據問題。企業能處理的數據越多,就能偵測與應對的事件越多。將輝達加速計算和生成式 AI 與 CrowdStrike 的網路安全能力結合,能為企業提供前所未有的威脅可見性。」
CrowdStrike 將運用輝達加速計算、Morpheus 平台及 NIM 微服務,將定制的 LLM 驅動應用導入企業環境。
結合 Falcon 平台的專屬上下文數據,企業將能應對新型安全需求,包括處理 PB 級日誌以優化威脅搜尋、檢測供應鏈攻擊、識別異常用戶行為,並主動防禦新興漏洞。
輝達新自動駕駛平台 助 Uber 部署 Robotaxi 車隊
黃仁勳表示,其端對端自動駕駛平台 DRIVE Hyperion 已準備好支援提供 Robotaxi 服務的汽車。
全球汽車製造商,包括 Stellantis (FCAU-US) 、Lucid(LCID-US) 及賓士,將利用輝達最新的 DRIVE AGX Hyperion 10 架構,加速自動駕駛技術開發。
輝達同時宣布,將與 Uber 建立合作關係,利用新一代 DRIVE AGX Hyperion 10 自動駕駛開發平台和 DRIVE AV 軟體,擴展全球最大的 L4 級自動駕駛網路。
輝達將支持 Uber 從 2027 年起,逐步將其全球自動駕駛車隊規模擴大至 10 萬輛。
DRIVE AGX Hyperion 10 為參考級生產計算機和感測器架構,使各型車輛可達到 L4 級準備狀態。
該平台使汽車製造商能建構配備經驗證硬體和感測器的汽車、卡車及貨車,並支援任何兼容的自動駕駛軟體。
黃仁勳指出:「無人駕駛出租車標誌著全球交通轉型的開始,讓交通更安全、更環保、更高效。我們與 Uber 共同為整個行業建立大規模部署自動駕駛車隊的框架。」
Uber 執行長 Dara Khosrowshahi 表示:「輝達是 AI 時代的重要支柱,現在正充分運用其創新技術,以大規模釋放 L4 自動駕駛能力。」
此外,Stellantis 正在開發 AV-Ready 平台,專為 L4 級自動駕駛能力及無人駕駛出租車需求進行優化,並將整合輝達全棧 AI 技術,擴展與 Uber 全球移動生態系統的連接性。
Uber 表示,Stellantis 將成為首批提供 Robotaxi 汽車的製造商之一,首批車輛將為美國及國際市場提供至少 5,000 輛輝達驅動的 Robotaxi,Uber 將負責車隊端到端營運,包括遠程協助、充電、清潔、維護及客戶支持。
Stellantis 計劃與富士康 (2317-TW) 合作,在硬體與系統整合方面展開協作,生產計劃將於 2028 年啟動,並首先在美國與 Uber 開展營運。
Lucid 正在推進其下一代乘用車的 L4 級自動駕駛能力,利用 DRIVE Hyperion 平台及全棧輝達 AV 軟體向客戶交付首批 L4 級自動駕駛汽車。
賓士則正在測試基於其專有操作系統 MB.OS 與 DRIVE AGX Hyperion 的合作,新款 S 級將提供卓越的 L4 級豪華駕乘體驗。
輝達與 Uber 將持續支持並加速全球合作夥伴在 DRIVE L4 平台上的軟體堆疊開發,包括 Avride、May Mobility、Momenta、Nuro、Pony.ai、Wayve 和 WeRide。
在卡車運輸領域,Aurora、Volvo 自動駕駛解決方案及 Waabi 正在開發由 DRIVE 平台驅動的 L4 級自動駕駛卡車。
輝達與 Palantir 攜手打造營運 AI 技術棧、勞氏公司率先應用供應鏈優化方案
輝達宣布,將與數據分析公司 Palantir 建立合作,將輝達 GPU 加速計算、開源 AI 模型及數據處理能力整合至 Palantir AI 平台(AIP) 的 Ontology 系統。
Ontology 透過將複雜數據與邏輯組織成互聯的虛擬物件、連結與動作,構建企業的數位雙生,為 AI 驅動的業務流程自動化提供基礎。
黃仁勳表示:「Palantir 與輝達共享願景:將 AI 化為行動,把企業數據轉化為決策智能。結合 Palantir 強大的 AI 平台與輝達 CUDA-X 加速計算及 Nemotron 開源 AI 模型,我們正打造下一代引擎,為運行全球最複雜工業與營運流程的專業化 AI 應用提供動力。」
在技術層面,客戶可透過 Ontology 使用輝達 CUDA-X 數據科學庫進行資料處理,結合 GPU 加速計算,為關鍵業務流程提供即時 AI 決策支持。
輝達企業 AI 平台(含 cuOpt 決策優化軟體)將助力企業動態管理供應鏈;同時,Nemotron 推理模型與 NeMo Retriever 開源模型,將幫助企業快速構建由 Ontology 提供資料的 AI 代理。
Palantir 聯合創辦人兼 CEO Alex Karp 表示:「Palantir 專注於部署能立即為客戶創造非對稱價值的 AI。我們很榮幸與輝達合作,將我們的 AI 驅動決策智能系統與全球最先進的 AI 基礎設施融合。」
零售商勞氏公司 (LOW-US) 成為首批採用 Palantir 與輝達整合技術棧的企業之一,正在建立全球供應鏈網路的數位雙生,以實現動態且持續的 AI 優化,提升供應鏈靈活性,同時增強成本效益與客戶滿意度。
勞氏首席數位與資訊長 Seemantini Godbole 表示:「現代供應鏈是極為複雜且動態的系統,AI 對於幫助 Lowe"s 在不斷變化的條件下快速適應與優化至關重要。即便是微小的需求變化,也可能在全球網路中引發連鎖效應。結合 Palantir 技術與輝達 AI,Lowe"s 正重新構想零售物流,使我們每天更好地服務客戶。」
輝達與 Palantir 計劃將 Blackwell 架構 引入 Palantir AIP,以加速從資料處理、分析到模型開發、微調,再到生產 AI 的端到端管線。
企業將能在輝達 AI 工廠中運行 AIP 以實現優化加速,同時 Palantir AIP 也將在輝達新推出的 政府 AI 工廠 參考設計中獲得支持。
禮來打造製藥業最強超級計算平台:超千塊 Blackwell Ultra GPU 驅動 AI 工廠
與此同時,禮來也將與輝達合作,建設一台由超過 1,000 塊 Blackwell Ultra GPU 驅動的超級電腦,這些 GPU 將透過統一高速網路互聯。
該系統將支援專門的 AI 工廠,為大規模開發、訓練與部署藥物發現與開發的 AI 模型提供計算基礎。
禮來首席資訊與數位長 Diogo Rau 表示,從首次人體試驗到產品上市通常需約 10 年時間。公司計劃在今年 12 月完成超級計算機與 AI 工廠建設,明年 1 月正式上線。
然而,Rau 強調,這些新工具的實際效益可能要到 2030 年末 才會在禮來及其他製藥企業的業務中顯現。
他指出:「我們現在討論的算力所發現的成果,真正回報要到 2030 年才能看到。」
禮來首席 AI 長 Thomas Fuchs 表示:「這是一種嶄新的科學工具,對生物學家而言,就像一台巨大的顯微鏡。它讓我們能以前所未有的規模進行探索。」
科學家將可在數百萬次實驗中訓練 AI 模型以測試潛在藥物,「極大擴展了藥物發現的範圍與複雜性。」
Rau 指出,雖然新藥發現並非唯一重點,但「這是最大的機會所在,我們希望找到人類單靠自身永遠無法發現的新分子。」
多個 AI 模型將通過 Lilly TuneLab 平台提供,這是一個 AI 與機器學習平台,使生物科技公司可使用禮來多年專有研究訓練的藥物發現模型,這些資料價值達 10 億美元。TuneLab 於去年 9 月推出,旨在擴大整個產業對藥物發現工具的使用。
Rau 表示,作為 AI 模型的使用交換,生物科技公司需提供部分自身研究與數據以協助模型訓練。TuneLab 平台採用 聯邦學習 技術,確保合作雙方可使用 AI 模型而無需直接共享資料。
此外,禮來計劃運用超級計算機縮短藥物開發週期,加速將治療方案送至患者手中。
新的科學 AI 代理將支持研究人員,先進的醫學影像技術則可幫助科學家更清晰了解疾病進程,並開發用於個性化護理的新生物標誌物。
Omniverse DSX:AI 工廠的終極藍圖
為應對超大規模 AI 部署的挑戰,黃仁勳也正式發布 Omniverse DSX,一套覆蓋 100 兆瓦至數千兆瓦級 AI 工廠設計與營運的綜合解決方案。
該藍圖已在弗吉尼亞州 AI 工廠研究中心完成全面驗證。
為了讓 DSX 參考設計適應不同數據中心需求,輝達提供了兩種配置框架:
- DSX Boost(內部能效優化):透過智能電力管理與工作負載動態分配,在相同算力輸出下可降低約 30% 能耗,或在相同電力預算下提升 30% GPU 密度,實現 Token 生成吞吐量的大幅提升。
- DSX Flex(外部能源整合):將數據中心深度接入區域電網,通過智能調度可再生能源並平衡供需,有效啟用美國電網中約 100 吉瓦 的閒置容量。
Omniverse DSX 旨在幫助新入局者快速構建 AI 工廠。該方案確保輝達及合作夥伴的硬體在處理器、網路與冷卻系統層面實現 開箱即用 的兼容性,即使缺乏專業經驗,也能按照藍圖部署,最大限度減少定制化需求。
值得注意的是,該架構不僅完全支持當前 Blackwell 平台,還預留對下一代 Vera Rubin 等未來產品的兼容能力,為投資者提供長期技術保障。