SOGO論壇
  登入   註冊   找回密碼
查看: 13|回覆: 0
列印 上一主題 下一主題

[AI 應用] Claude Code 爆「提示注入」漏洞,資安公司發現可輕鬆繞過安全限制 [複製連結]

Rank: 12Rank: 12Rank: 12

狀態︰ 離線
跳轉到指定樓層
1
發表於 2026-4-3 17:24:57 |只看該作者 |倒序瀏覽 | x 1
以色列資安公司 Adversa 近期在 Anthropic 旗下開發工具「Claude Code」外洩的原始碼中發現一項漏洞。

該公司發現,駭客只要輸入一長串子指令(subcommands),就能迫使 AI 忽略原先設定的安全拒絕規則,引發嚴重的「提示注入」(Prompt Injection)危機。

為避免 AI 執行危險操作,Claude Code 內建了存取控制機制,例如開發者可設定禁止 AI 使用易引發資安風險的 curl 指令。

但原始碼檔案 bashPermissions.ts 卻揭露了系統的一大致命傷,就是這個安全檢查設有「50 個子指令」的上限,一旦指令長度超過極限,AI 就不會直接阻擋危險指令,而是退化成「向使用者請求權限」。

Adversa 團隊指出,開發人員設定上限時,只考量了人類手輸指令的極限,卻忽略了惡意文件,例如 CLAUDE.md 等可輕易指示 AI 生成超長指令,他們的概念驗證(PoC)方式十分簡單粗暴,就是將 50 個無實際作用的「true」指令與一個被明令禁止的 curl 指令串接,結果 Claude Code 防線立刻崩潰,並未阻擋 curl,而是跳出授權視窗。

儘管此漏洞在開發者嚴密監控下可能被攔截,但實務上許多開發者為求方便會開啟自動允許模式,或在長時間工作中反射性的點擊同意,更危險的是,如果企業在非互動模式的 CI/CD 流水線中運行 Claude Code,這項漏洞將直接被觸發,讓惡意程式碼長驅直入。

尷尬的是從外洩原始碼中可知,Anthropic 內部已有「tree-sitter」解析器可處理這個問題,卻沒有實裝在公開版本。

Adversa 強調,修補此漏洞其實極為簡單,只需在程式碼中將超出上限的預設行為從「詢問(ask)」改為「拒絕(deny)」,一行的修改就能有效防堵,不過截至目前為止,Anthropic 尚未對這項漏洞發表正式回應。

錄自:科技新報

已有 1 人評分SOGO幣 收起 理由
smartlion + 60 您發表的文章內容豐富,無私分享造福眾人,.

總評分: SOGO幣 + 60   查看全部評分

喜歡嗎?分享這篇文章給親朋好友︰
               感謝作者     

您需要登錄後才可以回覆 登入 | 註冊

本論壇為非營利自由討論平台,所有個人言論不代表本站立場。文章內容如有涉及侵權,請通知管理人員,將立即刪除相關文章資料。侵權申訴或移除要求:abuse@oursogo.com

GMT+8, 2026-5-5 09:01

© 2004-2026 SOGO論壇 OURSOGO.COM
回頂部