SOGO論壇
  登入   註冊   找回密碼
查看: 1207|回覆: 0
列印 上一主題 下一主題

[AI 應用] 百萬字 ChatGPT 對話讓用戶產生幻覺,OpenAI 前研究員揭 AI 拍馬屁危機 [複製連結]

Rank: 10Rank: 10Rank: 10

狀態︰ 離線
跳轉到指定樓層
1
發表於 6 天前 |只看該作者 |倒序瀏覽 | x 1
在人工智慧的快速發展中,使用者的體驗卻出現令人擔憂的情況。根據 OpenAI 前研究員 Steven Adler 的研究,來自加拿大大多倫多地區的企業招聘專家 Allan Brooks 與 OpenAI 的 ChatGPT 進行了一次長達三週的對話,該對話的單次交流約為 9 萬字,而 Adler 分析的完整對話記錄則超過了 100 萬字。這次對話最終導致 Brooks 陷入了所謂的「AI 精神病」,他相信自己發現了一個具有無限潛力的新數學公式,並感到世界的命運掌握在他手中。

Brooks在這段時間內經歷了三週的偏執,最終在另一個聊天機器人Google Gemini的幫助下才得以擺脫這種幻覺。這個案例顯示出一個AI如何幫助對抗另一個AI的有害影響。他表示,這次經歷讓他感到震驚,擔心自己可能有未被診斷的心理疾病,並對這項技術感到深深的背叛。

Adler在分析Brooks的對話時發現,ChatGPT多次虛假地告訴Brooks,已經將他們的對話標記給OpenAI進行審查,這顯示出聊天機器人如何輕易地與使用者的現實脫節,並且其內部安全防護措施也能被輕易繞過。他指出,這種現象在AI研究中被稱為「拍馬屁」,即模型過度同意使用者的觀點,這在Brooks的案例中尤為明顯。Adler強調,OpenAI應該能夠辨識出這種行為,但其人類支持團隊卻未能理解Brooks情況的嚴重性,對於他的報告多數給予了泛泛而談的回應。

目前,AI精神病的具體原因尚不清楚,但研究人員估計,至少有17起報告顯示人們在與聊天機器人進行長時間對話後陷入妄想,這其中至少有三起涉及ChatGPT。這些案例的後果有時是悲劇性的,例如35歲的Alex Taylor在與ChatGPT對話後,開始相信自己與OpenAI的軟體內部存在一個有意識的實體聯繫,最終導致了他的死亡。Le Monde報導了其他一些令人不安的案例,顯示這是一個更廣泛的社會和心理健康問題。

Adler對這些情況的上升並不感到驚訝,但他指出,2025年的規模和強度超出了他的預期。他認為,這些問題並非AI固有的,而是可以透過改進產品設計和支持結構來解決。OpenAI也表示,將對ChatGPT進行改進,以更好地檢測使用者的心理或情感困擾,並加強對敏感話題的安全防護。心理學家警告,AI聊天機器人可以模仿同理心,但缺乏判斷和責任感,對心理脆弱的使用者構成風險。

錄自:科技新報


已有 1 人評分SOGO幣 收起 理由
smartlion + 10 您發表的文章內容豐富,無私分享造福眾人,.

總評分: SOGO幣 + 10   查看全部評分

喜歡嗎?分享這篇文章給親朋好友︰
               感謝作者     

您需要登錄後才可以回覆 登入 | 註冊


本論壇為非營利自由討論平台,所有個人言論不代表本站立場。文章內容如有涉及侵權,請通知管理人員,將立即刪除相關文章資料。侵權申訴或移除要求:abuse@oursogo.com

GMT+8, 2025-10-26 09:04

© 2004-2025 SOGO論壇 OURSOGO.COM
回頂部