1

熱搜:

熱門行情

最近搜尋

全部刪除

微軟成立MAI超級智慧團隊 與OpenAI並行 旨在把人放回中心

鉅亨網新聞中心
微軟成立MAI超級智慧團隊(圖:Shutterstock)
微軟成立MAI超級智慧團隊(圖:Shutterstock)

微軟 (MSFT-US)11 月 6 日宣布成立 MAI 超級智慧團隊 (MAI Superintelligence Team)。該團隊直屬 AI 執行長 Mustafa Suleyman 帶領,不依賴 OpenAI 模型,自研超級智慧。

沒有發布會,沒有展示。這支被稱為世界上最好的 AI 研究團隊之一的組織,只做了一件事:定義智慧邊界。

當 ChatGPT、Claude、Gemini 競爭日益激烈,他選擇畫出紅線。

微軟並未終止與 OpenAI 的合作,仍保持著主要投資者和模式部署平台的角色。但 MAI 團隊的成立,意味著微軟正式走上一條平行但獨立的研發路線。

與 OpenAI 追求通用平台不同,微軟的方向是:不求更強,但求更穩;不求泛化,但求可控。

Suleyman 在最新訪談中,沒有用技術術語開場,而是開門見山地宣告了微軟開發超級智慧的核心原則。我們永遠不想要一個系統,它不僅比我們任何一個人都聰明,甚至比我們所有人加在一起還聰明,而且還具備三種能力:自我改進、完全自主、獨立設定目標。

換句話說,微軟要避免打造一個最終會失控、脫離人類掌控的系統。這是立場,不只是技術路線。很多公司都在研究如何訓練出能力更強的 AI,然後透過對齊機制確保它不會傷害人類。Suleyman 不認同這種做法,他認為應該在一開始就避免那種可能脫離人類掌控的路徑。

控制、遏制和對齊,是我們從第一天就寫進這個專案的三個基礎。這是微軟成立 MAI 團隊的出發點:不再依賴外部通用模型,而是自己建立更穩健、更受控的超級智慧研發路線。

與 OpenAI 的合作並未中斷,但 Suleyman 給出的訊號很明確:微軟需要掌握自己對超級智慧的設計權和控制權。因為業界並不是所有人都同意這一點。

有人相信,只要 AI 和人類價值保持一致,即使它擁有完全自主權,也依然可以被信任。

但在 Suleyman 看來,這種想法太過樂觀,「我認為這是一個非常、非常重要的區別。微軟的選擇,是基於一種不同的風險觀念:不把安全寄託於事後補救,而是從源頭就規避不可預測的風險。」

這看法的背後非常明確:不是 AI 會不會出問題,而是當問題出現時,人類有沒有煞車可踩。

所以,微軟另起爐灶,不是因為 OpenAI 不夠強,而是因為這套超級智慧必須從安全可控開始,就寫在「說明書」的第一頁。

微軟新團隊 MAI 把注意力集中在三件事上:醫療、日常助理、安全護欄。為什麼是這三個方向? Suleyman 回應,「我們是一個平台的平台,很多人會使用我們構建的模型。我們的任務,是提前思考那些未來的用途必須通過哪些測試,才能被信任地使用。」

他用「橡膠正在接觸路面」來形容這個轉變:AI 不再停留在實驗室和概念層,而是進入現實使用場景。

醫療:比醫生更快,但必須可解釋

在訪談裡,Suleyman 把醫療診斷放在第一位。這個領域既能體現超級智慧在高精度、強運算、處理不確定性上的價值,也最容易出事。

微軟的目標不是讓 AI 取代醫生,而是讓醫生能看懂 AI 的思路。

AI 可以從海量影像中發現早期癌變,也能在藥物組合上給出方案,但每一個推薦,都要能被追溯、能被解釋。安全並非空談,它代表三個核心:系統必須可理解、可解釋、受約束。

日常助手:幫人做決定,而不是替人生活

Suleyman 談到,AI 應該成為使用者的助手,而不是主角。

微軟希望開發的,是那種能理解你需求、記得你偏好、給出合適建議的智慧助理,但它永遠不會越界。

我們想要的,是能加速人類潛能的智能,而不是取代人類互動。 這類 AI 會記得你的行程、幫你整理資料、甚至協助創作,但它的設計原則是:幫助不主導,理解不干預。

安全護欄:先建立防線

談到安全,Suleyman 指出了一個尷尬的現實:航空、汽車、能源產業都花了幾十年建立起層層安全機制,而 AI 領域目前幾乎是空白。

MAI 團隊正在研究如何提前發現風險,例如透過紅隊測試、設置蜜罐來誘導異常行為、反覆訓練模型在極端情況下的反應。

這些手段的根本目的,就是將最終控制權牢牢置於人類手中。微軟要讓智能變強之前,先變穩。

在 Suleyman 看來,AI 不該成為一個你完全不懂的黑盒,而要成為一個能解釋、能被糾錯的幫手。

這也是他口中人本超級智慧的真正意義:先實現服務人,再談超越人。

Suleyman 對哪種無限堆砌算力的技術演進路徑表達了質疑。「我們願意放棄某些模型能力提升,只為優先確保人類能理解它在做什麼。」

這聽起來幾乎是逆行業潮流的。別的公司都在追更強模型、更高吞吐量、更複雜架構,Suleyman 說,不是做不到,而是不該那樣做。因為他關注的不只是 AI 能力,而是人類是否還能看懂它,並且始終參與其中,保持控制。 控制的核心,是讓 AI 使用我們能理解的語言和方式來溝通。

Suleyman 警惕的是所謂向量到向量的 AI 內部交流方式。模型之間可能用高維數學表達互相溝通,但人類卻無法解釋中間過程。微軟不接受這種不可追蹤的交流。

所以他明確提出:AI 之間的通信,必須使用我們能理解的語言。

這並不是效率最優的做法。Suleyman 也承認,讓 AI 用自然語言交流,確實會犧牲部分運作效率。但他堅持,這才是對人類負責的做法。

更深一層的擔憂在於:誰來監督負責安全的 AI?如果所有監督都交給另一個 AI,這就只是把問題從一個黑盒子轉給另一個黑盒子。換句話說,不能讓 AI 管 AI,然後告訴人類一切盡在掌握。

OpenAI 追的是多模態通用平台,而微軟關注的是:企業用戶如何敢用、政府如何能監管、人類如何隨時踩踏煞車。

Suleyman 的態度很堅決:我們不能不惜一切代價前進,那將是一個瘋狂的自毀任務。從語言協定、通訊透明,到效能讓位給可控,微軟要的不只是模型,而是人類有解釋權的智慧工具。在技術邊界尚顯模糊的當下,微軟必須主動為此劃清紅線。

相關行情

相關貼文

left arrow
right arrow