SOGO論壇
  登入   註冊   找回密碼
查看: 19|回覆: 0
列印 上一主題 下一主題

[AI 應用] 寫提示詞別再加「你是專家」,研究建議直接發送指令 [複製連結]

Rank: 13Rank: 13Rank: 13Rank: 13

狀態︰ 離線
跳轉到指定樓層
1
發表於 2026-3-24 15:13:54 |只看該作者 |倒序瀏覽 | x 1
在生成式人工智慧(AI)的運用中,許多使用者習慣在提示詞(Prompt)開頭加入「你是一位專家級程式設計師」等角色設定,試圖藉此提升輸出品質。然而,根據南加州大學(USC)研究團隊及多項最新實驗顯示,「專家人格」提示法在處理程式編寫與數學運算等任務時,反而會導致模型表現下滑。

南加州大學研究員 Zizhao Hu 及其團隊在名為《專家人格提升大型語言模型(LLM)對齊(Alignment)但損害準確性》(Expert Personas Improve LLM Alignment but Damage Accuracy:Bootstrapping Intent-Based Persona Routing with PRISM)的預印論文(Preprint)中指出,人格提示的效果具有高度的「任務依賴性」。

研究發現,雖然設定特定人格能有效提升模型在寫作、角色扮演及安全性(如拒絕惡意攻擊)等「對齊(Alignment)依賴型」任務的表現,但在涉及程式碼與數學等「預訓練依賴型」任務時,結果卻適得其反。

根據大規模多任務語言理解(MMLU)基準測試,當要求模型在多選題中做出決策時,設定為專家人格的模型準確率僅為 68.0%,低於基礎模型的 71.6%。研究人員解釋,這可能是因為人格前綴啟動了模型的「指令遵循模式」,進而占用了原本應用於「事實檢索」的運算資源。換言之,告訴模型它是專家並不會增加其訓練資料中的事實,反而可能阻礙它從預訓練資料中提取正確資訊的能力。

針對此問題,USC 研究團隊提出了一種名為 PRISM(基於意圖自我建模的人格路由)的新技術。此項技術利用門控 LoRA(低秩適配,Low-Rank Adaptation)機制,讓模型在需要人格特質提升輸出時才啟動適配器(Adapter),其餘時間則回歸基礎模型以確保知識準確性。

對於一般使用者,研究人員建議:若重視安全性、規則或結構遵循,應提供具體的要求與人格設定;但若核心需求是事實準確性與邏輯運算,則應避免添加不必要的人格修飾,直接發送查詢指令即可。

錄自:科技新報

已有 1 人評分SOGO幣 收起 理由
smartlion + 20 您發表的文章內容豐富,無私分享造福眾人,.

總評分: SOGO幣 + 20   查看全部評分

喜歡嗎?分享這篇文章給親朋好友︰
               感謝作者     

您需要登錄後才可以回覆 登入 | 註冊

本論壇為非營利自由討論平台,所有個人言論不代表本站立場。文章內容如有涉及侵權,請通知管理人員,將立即刪除相關文章資料。侵權申訴或移除要求:abuse@oursogo.com

GMT+8, 2026-5-5 07:12

© 2004-2026 SOGO論壇 OURSOGO.COM
回頂部