馬斯克口中的AI安全三要素是什麼?他強調「人類比機器更有趣」

根據《CNBC》周二 (2 日) 報導,特斯拉 (TSLA-US) 執行長馬斯克在 podcast 節目中再次示警 AI 危險性,強調確保 AI 正向發展的三大關鍵要素為「真實、美感和好奇心」,並警告若 AI 被迫相信不實資訊可能導致「發瘋」。
馬斯克周日在與印度億萬富豪 Nikhil Kamath 的 Podcast 節目中表示:「我們無法保證 AI 一定會帶來正向未來。當你創造強大技術時,就會有危險,因為強大技術可能具有破壞性。」
強調 AI 必須追求真實
馬斯克過去曾警告「AI 是未來文明面臨的最大風險之一」,並強調 AI 的快速進步正讓它成為比汽車、飛機或藥物更大的社會風險。
在節目中,馬斯克強調確保 AI 技術追求真實而非重複不實資訊的重要性。「真實、美感和好奇心。我認為這是 AI 最重要的三件事。」他說。
馬斯克表示,若不嚴格遵守真實,AI 將從網路來源學習資訊,「會吸收大量謊言,然後在推理時遇到困難,因為這些謊言與現實不相容。」
他補充:「如果你強迫 AI 相信不真實的事情,可能會讓 AI 發瘋,因為這會導致錯誤的結論。」
「幻覺」成 AI 重大挑戰
「幻覺」即不正確或誤導性的回應是 AI 面臨的重大挑戰。今年稍早,蘋果 (AAPL-US) 在 iPhone 上推出的 AI 功能就產生了假新聞通知。
這些錯誤包括 BBC 新聞應用程式通知中關於 PDC 世界飛鏢錦標賽準決賽的錯誤摘要,錯誤宣稱英國飛鏢選手 Luke Littler 贏得冠軍。實際上 Littler 直到隔天才贏得決賽。
蘋果當時向 BBC 表示,正在開發更新來解決這個問題,將明確標示哪些通知文字是由 Apple Intelligence 產生的。
AI 應對人類保持好奇
馬斯克表示,AI 應該被設計成對現實保持好奇,因為人類比機器更有趣。「看到人類延續甚至繁榮,比消滅人類更有趣。」他說。
被稱為「AI 教父」的電腦科學家、Google(GOOGL-US) 前副總裁 Geoffrey Hinton 今年稍早在 podcast 節目中表示,AI「消滅人類」的機率有 10% 到 20%。他提到的短期風險包括幻覺問題和入門級工作自動化。
Hinton 補充:「希望有足夠多聰明人投入足夠資源研究,我們就能找到方法建構 AI,讓它們永遠不想傷害我們。」