SOGO論壇
  登入   註冊   找回密碼
查看: 288|回覆: 0
列印 上一主題 下一主題

[AI 應用] AI 不懂你說什麼,而是看懂句型?研究:LLM 太依賴語法使安全機制失效 [複製連結]

Rank: 4

狀態︰ 離線
跳轉到指定樓層
1
發表於 前天 15:43 |只看該作者 |倒序瀏覽 | x 1
在一項研究中,麻省理工學院、東北大學和 Meta 的研究團隊表示大型語言模型(LLM)在處理問題時可能優先考慮句子結構,而非有意義的潛在弱點。

研究顯示,這些模型在處理指令時存在漏洞,這可能解釋了為何某些提示注入或越獄方法能夠成功。研究團隊由Chantal Shaib和Vinith M. Suriyakumar領導,他們提出保留語法模式但使用無意義單詞的問題來進行測試。例如,當模型被問到Quickly sit Paris clouded?(模仿Where is Paris located?的結構)時,模型仍然回答France。

這表明模型同時吸收了意義和語法模式,但在某些情況下可能過度依賴結構性捷徑,尤其是當這些捷徑與訓練資料中的特定領域強相關時,這有時會導致模式覆蓋語義理解。研究團隊計劃在今年12月的NeurIPS會議上展示這些發現。

研究人員設計了一個控制實驗,創建了一個合成資料集,該資料集中的每個主題區域都有基於詞性模式的獨特語法模板。當他們將這些模板應用於不同主題時,發現模型在語法和語義之間的區分能力下降,這揭示了語法為領域代理的虛假相關性。

這項研究的結果顯示,AI語言模型可能過於專注於問題的風格而非實際意義,這可能導致在不熟悉的上下文中給出錯誤答案,並且壞人可能利用這些模式來繞過安全條件。

此外,研究團隊還發現了一種安全漏洞,這可以被稱為語法駭客攻擊。透過在提示前添加來自良性訓練領域的語法模式,他們成功繞過了OLMo-2-7B-Instruct的安全過濾器。當他們將思維鏈模板添加到1,000個來自WildJailbreak資料集的有害請求時,拒絕率從40%降至2.5%。

這項研究的發現強調了當前AI安全協議的不足,並呼籲行業開發更強大的機制來檢測和阻止有害意圖,無論其語言上如何掩蓋。

錄自:科技新報

已有 1 人評分SOGO幣 收起 理由
smartlion + 10 您發表的文章內容豐富,無私分享造福眾人,.

總評分: SOGO幣 + 10   查看全部評分

喜歡嗎?分享這篇文章給親朋好友︰
               感謝作者     

您需要登錄後才可以回覆 登入 | 註冊


本論壇為非營利自由討論平台,所有個人言論不代表本站立場。文章內容如有涉及侵權,請通知管理人員,將立即刪除相關文章資料。侵權申訴或移除要求:abuse@oursogo.com

GMT+8, 2025-12-5 05:46

© 2004-2025 SOGO論壇 OURSOGO.COM
回頂部