OpenAI GPT-5「不如預期」原因曝!SemiAnalysis:預訓練0突破

SemiAnalysis 近日發布文章指出,OpenAI 的 GPT-5 在技術基礎上仍大幅依賴 GPT-4o,未完成預訓練,且 GPT-4.5 之後的預訓練版本甚至被放棄,讓外界懷疑 OpenAI 是否已經遇到貧頸。
根據 SemiAnalysis,OpenAI 頂尖團隊自 GPT-4o 發布後,至今都尚未完成一次完整的,為下一代尖端模型設計的大規模預訓練。
分析指出,儘管 AI 圈內多將焦點放在大型語言模型的推理能力與後訓練硬體,但實際上,沒有尖端模型的預訓練,一切僅是「無米之炊」。
在 AI 領域中,預訓練是模型真正進步的核心步驟。如果沒有高品質預訓練,即便後續再做微調或優化推理能力,也無法達到顯著提升,是 AI 硬體與算法中最耗資源的一環。
文章還指出,Google(GOOGL-US) 的 TPUv7 已經被證明能完成大規模預訓練,對長期依賴輝達 (NVDA-US) GPU 的 OpenAI 構成潛在威脅。
換句話說,Google 手持 TPUv7 這把「利劍」,可能挑戰輝達的 CUDA 生態,甚至威脅 OpenAI 的硬體優勢。
OpenAI Orion 計畫翻車,GPT-5 基礎未突破
值得注意的是,SemiAnalysis 去年底也曾披露 OpenAI Orion 計畫的訓練困境,顯示 OpenAI 在尖端模型預訓練上陷入僵局。
回顧當時,「Orion」秘密計畫原本計畫以 GPT-5 面世,但因訓練效果未達預期,最終以 GPT-4.5 形式釋出。
隨著算法進步,現代大型語言模型每年所需的物理計算量通常下降約三分之一,行業內大多數模型的預訓練僅需 1–2 個月,極少超過 3 個月。
然而,Orion 計畫的大規模預訓練卻超過 3 個月,遠超行業常規,顯示其遇到技術瓶頸。
根據《The Information》報導,相較於從 GPT-3 到 GPT-4 的飛躍,Orion 的性能提升有限,主要集中在語言能力,程式設計能力甚至不如舊模型,且訓練成本更高。
GPT-4.5 將重點放在提升語言表達能力、提供更穩定的對話體驗和擴大知識庫上,使在這代模型中,「情商」成為關鍵詞,而程式設計能力只是輔助功能。
這些都印證了此前「Orion 遇挫」的傳聞,GPT-5 雖然有所提升,但幅度有限,未達業界預期。
GPT-5 發布引發業界熱議:效果不如預期
今年 8 月,OpenAI 推出 GPT-5,官方稱其為「博士級 AI,是通往 AGI 的又一里程碑」。然而,業界反應分歧,評論者多認為實際效果不如預期。
外界原本期待 GPT-5 能全面超越前代,但其卻更像是 GPT-4.5 的延伸優化版,而非全新革命性產品。
關於 GPT-5 到底基於哪款模型,目前尚無官方確認。
據傳,該模型可能仍以 GPT-4o 為基礎,也有網友推測是 GPT-4.1。然而,無論哪一版本,都顯示 GPT-5 並未經歷全新尖端模型的大規模預訓練,核心突破有限。
與此同時,Google 發布的 Gemini 3 來勢洶洶,進一步改變了大型語言模型的競爭格局,使 OpenAI 備受威脅。
根據外洩的內部備忘錄,OpenAI 執行長 Sam Altman 就坦言:「近期,從各方面來看,Google 在大型語言模型上表現出色。」