1

熱搜:

熱門行情

最近搜尋

全部刪除

微軟等領軍企業建立產業組織 推進AI安全研究

鉅亨網編譯段智恆
微軟等領軍企業建立產業組織 推進AI安全研究(圖:REUTERS/TPG)
微軟等領軍企業建立產業組織 推進AI安全研究(圖:REUTERS/TPG)

多家外媒周三(26 日)報導,Alphabet(GOOGL-US) 旗下 Google、微軟 (MSFT-US)、OpenAI、Anthropic 這四家人工智慧(AI)領域的四大天王發布聯合公告,宣布成立「前沿模型論壇」(Frontier Model Forum),旨在「確保安全、負責任地開發前沿 AI 模型」。

根據公告,前沿模型論壇的核心目標包括:

  • 推進 AI 安全研究,促進負責任的開發 AI 系統,最大限度地降低風險,並實現對大型語言模型能力和安全性的獨立、標準化評估。
  • 確定前沿模型負責任開發和部署的最佳案例,幫助公眾瞭解這項技術的性質、能力、局限性和影響。
  • 與各國政府、學術界、社會組織及公司合作,分享有關 AI 大模型信任和安全風險的知識。
  • 支援開發有助於應對全球社會挑戰的應用程式,例如減緩和適應氣候變遷、早期癌症檢測和預防以及應對網路威脅。

聯合公告還指出,該論壇將在未來幾個月內成立一個諮詢委員會來指導 AI 策略,並將成立工作組和執行委員會,來安排包括章程、管理和資金在內的工作。

微軟副董事長兼總裁史密斯(Brad Smith)表示,創造 AI 大模型的公司有責任確保其安全可靠,並始終處於人類控制之下,這一舉措是將科技行業聚集在一起,負責任地推進人工智慧並應對挑戰,使其造福全人類的重要一步。

但針對這一論壇,英國《金融時報》(FT)指出,論壇的建立意味著科技巨擘的工作將集中於日益強大的 AI 帶來的潛在風險,而不是回答當今監管機構與版權、資料保護和隱私有關的實際問題。 

華盛頓大學的運算語言學家 Emily Bender 認為,這些公司的做法是試圖逃避監管,讓公眾將注意力集中在對「AI 湧現並接管人類工作」的恐懼上,會分散人們對「資料盜竊、監視等實際問題」的注意力。Bender 說:「監管需要來自外部。它需要由代表各國政府制定,來限制這些公司的行為。 」

此前,美國聯邦貿易委員會(FTC)已對 OpenAI 發起調查。先前有媒體報導,FTC 告知 OpenAI,將調查 ChatGPT 是否通過發布虛假資訊損害了大眾利益,以及 OpenAI 是否存有「不公平或欺騙性」的隱私和資料安全行為。

這一舉動早有預警,今年 5 月,白宮與 OpenAI、Google、微軟等公司的執行長會面,探討相關技術的風險。白宮還表示,7 家最大的 AI 公司已同意在 8 月份的年度 Def Con 國際資訊安全會議上開放模型,接受一定程度的公眾監督。

近日,在白宮指示下,美國 AI 巨擘「自我管控」的條例浮出檯面。白宮公布,拜登政府得到了亞馬遜 (AMZN-US)、Anthropic、Google、Inflection、Meta(META-US)、微軟和 OpenAI 這 7 家公司自願的承諾,管控 AI 帶來的風險。這些公司承諾,將幫助推動 AI 技術安全且透明的發展。

相關貼文

left arrow
right arrow