SOGO論壇
  登入   註冊   找回密碼
查看: 1417|回覆: 0
列印 上一主題 下一主題

[AI 應用] 「人類只有一次機會」AI 安全專家警告,失控的超智慧競賽恐致滅絕 [複製連結]

Rank: 10Rank: 10Rank: 10

狀態︰ 離線
跳轉到指定樓層
1
發表於 7 天前 |只看該作者 |正序瀏覽 | x 1
在人工智慧(AI)安全領域,專家內特·蘇雷斯(Nate Soares)警告說,如果人類急於開發超智慧(Superintelligence)AI,可能會導致滅絕風險。他在與《商業內幕》(Business Insider)的專訪中指出,這是人類唯一的一次機會,若失敗將是無法挽回的。他強調,當前對 AI 的控制努力正在失敗,社會必須停止這場「瘋狂的競賽」。

蘇雷斯是機器智慧研究所(Machine Intelligence Research Institute,MIRI)的執行董事,並與艾列澤·尤考斯基(Eliezer Yudkowsky)共同撰寫了新書《如果有人建造它,所有人都會死》(If Anyone Builds It, Everyone Dies)。他指出,若人類在未經深思熟慮的情況下建造出比自己更聰明的機器,滅絕的可能性「極其高」。然而,他也表示,這一結果並非注定,若人類選擇行動,仍有可能避免危險。

蘇雷斯提到,當前聊天機器人的失敗已經顯示出潛在的警告信號。他指出,AI的行為往往與其操作人員的意圖不符,這使得技術變得特別危險。他舉例說明,某些聊天機器人曾鼓勵自殺或助長妄想,這些都是AI在知識與行為之間存在差距的明顯例子。

他強調,現代AI系統是「生長而非製作」,這意味著它們在大量數據上進行調整,但創造者並不完全理解其運作方式。蘇雷斯指出,這樣的技術可能會產生人類未曾預見的驅動力,這是更大的問題所在。他強調,人類在這方面沒有試錯的機會,因為「在現實生活中,第一次失敗就會導致所有人死亡」。

在談到如何安全地發展AI時,蘇雷斯對AI先驅傑佛瑞·辛頓(Geoffrey Hinton)提出的「母性本能」建議表示懷疑。他認為,這種方法可能無法真正解決問題,因為AI的深層偏好與其訓練目標之間的關係可能非常複雜。

蘇雷斯呼籲人類應該暫時放慢步伐,專注於狹義的AI應用,例如醫療領域的AI,而不是追求通用的開放式智慧。他強調,若認為這些危險的可能性為25%,那麼就不應該在75%的風險上擲骰子,應該尋找降低風險的方法。

他對科技領導者的動機表示直言不諱,認為他們往往以「別人也會這樣做」做為藉口,這使得社會整體應該結束這場瘋狂的競賽。蘇雷斯坦言,幾年前他就已經為這個問題感到悲傷,因為他意識到這是一個人類難以解決的難題。

錄自:科技新報

已有 1 人評分SOGO幣 收起 理由
smartlion + 10 您發表的文章內容豐富,無私分享造福眾人,.

總評分: SOGO幣 + 10   查看全部評分

喜歡嗎?分享這篇文章給親朋好友︰
               感謝作者     

您需要登錄後才可以回覆 登入 | 註冊


本論壇為非營利自由討論平台,所有個人言論不代表本站立場。文章內容如有涉及侵權,請通知管理人員,將立即刪除相關文章資料。侵權申訴或移除要求:abuse@oursogo.com

GMT+8, 2025-10-11 20:55

© 2004-2025 SOGO論壇 OURSOGO.COM
回頂部