1

熱搜:

熱門行情

最近搜尋

全部刪除

將AI的「滅絕風險」與核戰類比 OpenAI創辦人領銜簽署聯名信呼籲監管

鉅亨網新聞中心
將AI的「滅絕風險」與核戰類比 OpenAI創辦人領銜簽署聯名信呼籲監管(圖:shutterstock)
將AI的「滅絕風險」與核戰類比 OpenAI創辦人領銜簽署聯名信呼籲監管(圖:shutterstock)

一些人工智慧專家周二 (30 日) 發出可怕警告,認為人工智慧模型可能很快就會比人類更聰明、更強大,現在是施加限制以確保它們不會控制人類或毀滅世界的時候了。

一群科學家和科技行業領袖,在 AI 安全中心網站 (Center for AI Safety) 發表公開信,強調「減輕 AI 滅絕的風險,應該與疫情和核子戰爭等其他社會規模的風險,共同成為全球優先事項。」

超過 350 人簽署了這一聲明,簽署者表示,他們希望就 AI 最嚴重的風險展開討論。值得注意的是,開發 ChatGPT 的 OpenAI 執行長 Sam Altman 和其技術長 Mira Murati 都簽署了這份聲明。

其他簽署者包括微軟 (MSFT-US) 技術長 Kevin Scott,Google(GOOGL-US)AI 高管 Lila Ibrahim 和 Marian Rogers,以及前聯合國裁軍事務高級代表 Angela Kane 等人。

自 OpenAI 去年發布 ChatGPT 以來,批評人士加大了對 AI 進行監管的呼籲,認為這一技術對人類構成了無法估計的威脅。

在 3 月發表的一份獨立聲明中,技術高管和研究人員呼籲暫停訓練更強大的 AI 系統至少 6 個月,這一聲明現已有 3 萬多人簽署。

近幾個月來,隨著投資者押注他們認為的新計算時代,人工智慧概念股大幅上漲。特別是,開發 AI 技術的半導體公司 Nvidia (NVDA-US) 成為首家估值達到 1 兆美元的晶片製造商。

拜登政府近幾個月表示,人工智慧對公共安全、隱私和民主構成威脅,但政府對其監管的權力有限。

相關貼文

left arrow
right arrow