傳OpenAI攜手博通與台積電打造AI推理晶片 自建晶圓廠雄心消退
路透周二 (29 日) 援引知情人士消息報導,OpenAI 正與博通 (AVGO-US)、台積電(2330-US)(TSM-US) 合作打造首款內部晶片,目的是支撐其人工智慧 (AI) 系統,與此同時還會採用超微 (AMD-US) 和輝達 (NVDA-US) 的晶片,以滿足其不斷成長的基礎設施需求。
據了解,OpenAI 已經研究一系列讓晶片供應多樣化和降低成本選擇,該公司曾考慮自建晶圓廠網絡,但由於所需成本和時間考量下放棄這項計畫,轉而聚焦設計內部晶片。
OpenAI 的策略也凸顯其如何利用產業合作夥伴關係以及內外部晶片混合運用,確保供應與管理成本,如同規模更大的競爭對手亞馬遜 (AMZN-US)、Meta(META-US)、Google(GOOGL-US)、微軟(MSFT-US) 一樣。
報導指出,作為大宗晶片買家之一,OpenAI 決定開發內部晶片同時,仍從不同晶片製造商採購晶片使用,可能會對科技產業產生更廣泛的影響。
截稿前,OpenAI、超微、台積電均拒絕置評,而博通並未立即回應置評請求。
據悉,OpenAI 已與博通合作數月,以打造其首款推理 AI 晶片。目前對訓練晶片的需求更大,但分析師預測,隨著更多 AI 應用部署,對推理晶片的需求可能會超過訓練晶片。
另有兩名知情人士透露,OpenAI 仍在決定是否替其內部晶片設計其他元素進行開發或收購,還是與其他公司合作。
該公司已經打造一個大約 20 人的晶片團隊,由曾在 Google 製造張量處理器 (Tensor Processing Unit, TPU) 的頂級工程師領導,包括 Thomas Norrie 和 Richard Ho。
值得注意的是,OpenAI 已經預訂台積電 2026 年產能製造首款客製化晶片,不過時間表可能會有所改變。
目前,輝達的 GPU 占據超過 80% 的市場,但短缺和不斷上漲的成本導致微軟、Meta 和 OpenAI 等主要客戶開始探索內部或外部替代方案。
OpenAI 打算透過微軟的 Azure 使用超微的晶片,此舉表明超微的新型 MI300X 晶片正試圖從由輝達主導的市場中分一杯羹。 超微曾預估,2024 年該款晶片的銷售額將達到 45 億美元。
訓練 AI 模型和運作 ChatGPT 等服務是昂貴的。知情人士透露,OpenAI 預估今年營收 37 億美元、虧損 50 億美元。運算成本,即處理大型資料集和開發模型所需的硬體、電力和雲端服務費用,是該公司最大的支出,這讓該公司努力優化利用率並使供應商多樣化。
知情人士補充說,OpenAI 一直對從輝達挖角持謹慎態度,因其希望與這家仍致力於合作的晶片製造商保持良好的關係,尤其是在獲取其新一代 Blackwell 晶片方面。
對於上述消息,輝達拒絕置評。