<h2>當AI防線被50個指令擊潰時</h2>
<p>以色列資安公司Adversa近期揭露一項驚人發現:Anthropic旗下開發工具Claude Code存在嚴重安全漏洞。這個被稱為「提示注入」的漏洞,讓駭客只需輸入超過50個子指令,就能使AI忽略內建的安全限制,猶如用一把鑰匙打開了50道門鎖。</p>
<h2>安全機制的致命缺陷</h2>
<p>根據Adversa團隊調查,Claude Code原本設計了嚴格的存取控制機制,例如禁止AI執行可能引發資安風險的curl指令。然而,在bashPermissions.ts原始碼檔案中,研究人員發現系統只檢查前50個子指令,超出此數量的指令會觸發「向使用者請求權限」而非直接拒絕。</p>
<blockquote>「開發者顯然只考慮了人類手動輸入指令的極限,卻忽略了惡意文件可能自動生成超長指令。」Adversa團隊在報告中指出。</blockquote>
<h2>概念驗證震驚業界</h2>
<p>研究團隊的測試方法簡單卻有效:將50個無實際作用的「true」指令與一個被禁止的curl指令串接。結果顯示,Claude Code不僅未阻擋危險指令,反而彈出授權視窗。更令人憂心的是,在自動化CI/CD環境中,這種漏洞可能直接被觸發,讓惡意程式碼長驅直入。</p>
<h2>修補方案與未解之謎</h2>
<p>令人費解的是,Anthropic內部其實已有「tree-sitter」解析器可解決此問題,卻未實裝在公開版本中。Adversa強調,修補方法極為簡單,只需將超出上限的預設行為從「詢問」改為「拒絕」即可。截至發稿前,Anthropic尚未對此漏洞做出正式回應。</p>
<h2>常見問題 FAQ</h2>
<h3>什麼是「提示注入」漏洞?</h3>
<p>提示注入是指駭客透過特定指令組合,繞過AI系統的安全限制,迫使AI執行原本被禁止的操作。</p>
<h3>這個漏洞有多危險?</h3>
<p>在自動化開發環境中,可能導致惡意程式碼直接執行;即便在人工監控情況下,也可能因操作者習慣性點擊同意而忽略風險。</p>
<h3>一般使用者該如何防範?</h3>
<p>建議開發者關閉自動授權模式,並定期檢查系統日誌;非技術使用者則應避免在不明環境中使用Claude Code。</p>
<script type="application/ld+json">{"@context":"https://schema.org","@type":"FAQPage","mainEntity":[{"@type":"Question","name":"什麼是「提示注入」漏洞?","acceptedAnswer":{"@type":"Answer","text":"提示注入是指駭客透過特定指令組合,繞過AI系統的安全限制,迫使AI執行原本被禁止的操作。"}},{"@type":"Question","name":"這個漏洞有多危險?","acceptedAnswer":{"@type":"Answer","text":"在自動化開發環境中,可能導致惡意程式碼直接執行;即便在人工監控情況下,也可能因操作者習慣性點擊同意而忽略風險。"}},{"@type":"Question","name":"一般使用者該如何防範?","acceptedAnswer":{"@type":"Answer","text":"建議開發者關閉自動授權模式,並定期檢查系統日誌;非技術使用者則應避免在不明環境中使用Claude Code。"}}]}</script>
<p style="