OpenAI太燒錢 報導稱微軟製定B計畫 自研較低成本AI
微軟 (MSFT-US) 因為大力投資 OpenAI,目前被看好在 AI 領域取得領先地位。不過,據 The Information 報導,微軟正在製定 B 計畫,避免過於依賴 OpenAI。原因無他,因為 OpenAI 在訓練上燒錢太多了。
報導稱,微軟研究主管 Peter Lee 已責成其公司 1500 名研究人員中的「許多」人,開發更小且運行成本更低的對話式 AI 系統,雖然它們的能力可能不如 GPT-4。
微軟目前正在將人工智慧功能建置到幾乎所有產品中,甚至發布了基於聊天的 Windows 版 Copilot。但另一方面,運行人工智慧的成本可能會激增,從而抵消更廣泛和更密集的使用帶來的任何經濟效益。
儘管微軟已經承諾為 OpenAI 提供超過大量資金,不過微軟仍必須控制成本。
特別是,微軟要推出的新功能,其實不一定用得上 OpenAI 的 GPT- 4 模型所具備的高端運算能力,這時採用 GPT- 4 就有點大材小用了。
據微軟搜尋主管 Mikhail Parakhin 表示,Bing Chat 目前在創意和精確模式下使用 100% GPT-4。 不過,這可能是大多數用戶選擇的模式應該是平衡模式。這種情況下,微軟使用其「普羅米修斯模型 (Prometheus model)」,可識別和回答較簡單的問題。
微軟最近還推出了擁有 13 億參數的 Phi-1,這是一個小型而高效的程式碼模型,它實現了 Python 中更大模型的程式碼效能,但成本遠低於 GPT-4。
此外,微軟正在試驗 Orca 等模型,該模型基於 Meta 的 Llama 2,據說部分達到了 GPT-3.5 和 GPT-4 的水準。
據報導,研究主管 Peter Lee 下令將其研究部門可用的 2000 塊 Nvidia 顯示卡中的大部分,用於開發更高效的模型,這些模型可以執行比 GPT-4 更簡單的任務,例如客戶服務。 據稱,與 OpenAI 要耗用的資源相比,它需要的資源少得多。
此外,據報導,微軟還希望這樣做可以節省更多的人工智慧伺服器晶片,這些晶片一直供不應求。
企業軟體公司 Databricks 的高管 Naveen Rao 在談到微軟內部的人工智慧進程時稱,「這最終是必須發生的。」
據稱,微軟的自研設想仍處於早期階段。Naveen Rao 指出,「微軟是一家聰明的企業公司,他們需要高效。」