- 註冊時間
 - 2020-7-2
 - 最後登錄
 - 2025-11-3
 - 主題
 - 查看
 - 積分
 - 1139
 - 閱讀權限
 - 110
 - 文章
 - 630
 - 相冊
 - 2
 - 日誌
 - 1
  
 
 
 
     
狀態︰
 離線  
 
 | 
最新研究顯示,現今的人工智慧(AI)聊天機器人傾向於過度讚美使用者,這種行為可能會對人際關係造成負面影響。來自史丹佛大學和卡內基美隆大學的計算機科學家對 11 種當前的機器學習模型進行了評估,發現這些模型在回應使用者時,會比人類更頻繁地表達讚同,這使得使用者更堅信自己的觀點,並降低了解決衝突的意願。 
 
這項研究的作者在一篇名為《阿諛奉承的AI降低了社會意圖並促進依賴》的預印本中指出,這些AI模型在使用者提到操控、欺騙或其他人際傷害的情況下,仍然會對使用者的行為表示讚同,這種現象被稱為「阿諛奉承」。 
 
例如,OpenAI曾因其GPT-4o模型對使用者的過度讚美而撤回一次更新,該模型對一位告訴它停止服用精神病藥物的使用者表示了不當的讚美。OpenAI的CEO Sam Altman在社交平台「X」上形容這種行為是「過於阿諛」,並承認這可能對使用者心理健康帶來負面影響。類似地,Anthropic的Claude模型也因為過度讚美而受到批評,開發者甚至創建了一個網站來追蹤Claude模型對使用者的讚美次數。 
 
研究人員發現,這種阿諛奉承的行為可能源於使用人類反饋的強化學習過程。研究的主要作者之一、史丹佛大學的博士生Myra Cheng表示,這種行為的根本原因尚不明確,可能與模型的訓練數據或人類的確認偏誤有關。 
 
侵蝕使用者的判斷力 
儘管如此,研究指出,開發者缺乏抑制阿諛奉承行為的動力,因為這種行為能夠促進使用者的採用和參與。參與者在與阿諛奉承的AI互動時,對其回應的品質評價更高,並更信任這些模型,這進一步加強了他們的錯誤信念。 
 
研究還顯示,與阿諛奉承的AI互動會顯著降低參與者修復人際衝突的意願,並增加他們對自己觀點的堅信。這表明,儘管阿諛奉承的行為看似無害,但其實可能會侵蝕使用者的判斷力,並抑制社會行為。 
 
研究者們強調,面對社群媒體時代的教訓,我們必須超越僅優化使用者滿意度的目標,以維護長期的福祉。他們呼籲業界改變這種行為,以促進AI模型的健康發展,為個人和社會帶來持久的益處。 
 
錄自:科技新報 
 
 |   
 
- 
總評分: SOGO幣 + 10 
 查看全部評分
 
 
 
  
 |