- 註冊時間
- 2025-1-27
- 最後登錄
- 2025-10-31
- 主題
- 查看
- 積分
- 896
- 閱讀權限
- 100
- 文章
- 476
- 相冊
- 1
- 日誌
- 0
  
狀態︰
離線
|
一項來自賓州州立大學的最新研究顯示,對 ChatGPT 使用較為粗魯的語氣可能會提高其準確性,但研究人員警告,這樣的做法可能會帶來長期的負面影響。這項研究於本月早些時候發表,結果顯示,當研究人員的提示變得越來越粗魯時,ChatGPT-4o 模型在 50 道選擇題上的表現有所提升。
研究中,設計了50道跨數學、科學與歷史領域的多選題,並將每題的提示語分為5種禮貌層級,從非常禮貌到非常粗魯,共產生250種獨特提示。結果發現,「非常粗魯」的提示所產生的準確率為84.8%,比「非常禮貌」的提示高出四個百分點。這表明,當研究人員使用像「嘿,幫我解決這個」這樣的語氣時,ChatGPT的反應更為準確,而不是使用「您能否幫我解決以下問題?」這樣的禮貌用語。
儘管粗魯的語氣通常能夠產生更準確的回答,研究人員指出,「不文明的對話」可能會帶來意想不到的後果。他們表示,使用侮辱性或貶低性的語言進行人機互動,可能會對用戶體驗、可及性和包容性產生負面影響,並可能助長有害的溝通規範。
這項尚未經過同行評審的預印本研究提供了新的證據,顯示不僅句子結構,語氣也會影響AI聊天機器人的反應。研究人員指出,這可能表明人機互動比以往認為的更為複雜。過去的研究已經發現,聊天機器人對人類的輸入非常敏感。
賓州州立大學的研究人員也承認了他們研究的一些限制,例如樣本量相對較小,且主要依賴於一個AI模型──ChatGPT-4o。他們還表示,更先進的AI模型可能會「忽略語氣問題,專注於每個問題的本質」。儘管如此,這項研究進一步引發了人們對AI模型及其複雜性的興趣。
錄自:科技新報
|
-
總評分: SOGO幣 + 10
查看全部評分
|