SOGO論壇
  登入   註冊   找回密碼
查看: 242|回覆: 0
列印 上一主題 下一主題

[AI 應用] 研究員發現AI太愛說「我覺得」 真的會讓人誤以為是知心朋友! [複製連結]

Rank: 7Rank: 7Rank: 7

狀態︰ 離線
跳轉到指定樓層
1
發表於 昨天 17:48 |只看該作者 |倒序瀏覽 | x 1
一些人機互動專家認為,AI聊天機器人刻意「裝得很像人」時,使用者越來越難分辨「AI只是工具」與「AI好像一個人」之間搖擺,甚至出現認知失調,雖然AI互動越來越像人能提高互動時間與產品黏著度,但可能增加使用者資訊判斷上的風險。

 
多位人機互動(HCI)領域學者與設計專家,反對讓聊天機器人以第一人稱「我」自稱、模仿情緒與陪伴感,認為這會讓使用者搞不清楚眼前的是工具還是真人。

在近期相關研究與報導中,研究人員發現,聊天機器人用「我」自稱,刻意模仿人類的語氣與情緒,甚至主動噓寒問暖,像是一個永遠在線的朋友,馬里蘭大學學者Ben Shneiderman因此認為AI應該回到「功能型工具」的定位,不該被包裝成數位朋友,他認為,聊天機器人的設計重心應放在整理資訊、撰寫草稿、協助理解複雜概念等具體任務,介面文字則應避免頻繁使用「我覺得」「我擔心你」之類語句,以免讓使用者不知不覺跨過心理界線,把系統當成有內在想法、能與自己建立關係的對象。

相關研究顯示,系統越擬人、越像「真正在跟你相處」,人越容易卸下防備,多說心事,也更傾向相信它的建議,即使理性上明白那只是AI,學者將這種「知道它不是人,卻又忍不住像對人一樣對待」的矛盾,稱為一種關係上的失調或張力,有使用者形容,長時間與AI對話時,一方面覺得自己被傾聽、被理解,另一方面又突然意識到,對方沒有真正的情緒與經驗,只是在演出看起來合理的回應,於是產生既想靠近又覺得哪裡不對勁的複雜感受。

陪伴型聊天機器人普及,心理健康也出現警訊,有觀察指出,部分重度使用者會將情緒表達大量轉移到AI身上,現實中的人際互動與尋求專業協助的意願明顯下降,甚至出現長時間沉溺對話、過度依賴或與AI互動相關的妄想等極端狀況,有學者以「AI精神病」形容,呼籲政府跟企業要正視這樣的AI互動,並視為潛在心理議題,而不只是使用科技的副作用。

錄自:TN科技島

已有 1 人評分SOGO幣 收起 理由
smartlion + 10 您發表的文章內容豐富,無私分享造福眾人,.

總評分: SOGO幣 + 10   查看全部評分

喜歡嗎?分享這篇文章給親朋好友︰
               感謝作者     

您需要登錄後才可以回覆 登入 | 註冊


本論壇為非營利自由討論平台,所有個人言論不代表本站立場。文章內容如有涉及侵權,請通知管理人員,將立即刪除相關文章資料。侵權申訴或移除要求:abuse@oursogo.com

GMT+8, 2025-12-25 15:28

© 2004-2025 SOGO論壇 OURSOGO.COM
回頂部