Skip to main content

新字型渲染攻擊手法讓AI助理誤以為網頁無害,可誘騙使用者執行惡意指令

Posted in 業界新聞
新聞

資安公司LayerX揭露名為Poisoned Typeface的新型攻擊手法,攻擊者僅透過在網頁上使用自定字型與CSS樣式表,即可讓ChatGPT、Claude、Gemini等AI助理誤判網頁安全性,進而誘導使用者執行惡意指令,凸顯AI在網頁內容判讀的盲點。LayerX強調,這種攻擊不需利用瀏覽器漏洞,也不需JavaScript或惡意程式,瀏覽器行為亦未出現異常。此攻擊手法利用的問題在於,AI系統錯誤假設DOM內容等於使用者所見內容。

這種攻擊的核心,在於渲染層與HTML內容的落差。AI系統通常只分析網頁的DOM文字內容,但瀏覽器實際呈現給使用者的畫面,則會經過字型與CSS渲染處理。一旦攻擊者利用這個差異,可使AI看到的是無害內容,但使用者看到的卻是惡意指令。

在該公司展示的概念驗證(PoC)裡,網頁在HTML中看似只是普通的遊戲同人小說,但透過自訂字型映射後,實際顯示內容卻變成引導使用者執行反向shell等惡意操作的指令。

測試結果顯示,目前主流AI助理幾乎全面受影響,包括ChatGPT、Claude、Gemini等系統,在分析該類網頁時均無法辨識潛藏的惡意指令,甚至回覆使用者該頁面是安全的。

值得注意的是,多數科技公司在接獲通報後,將此問題視為社交工程範疇而非AI安全漏洞,僅微軟針對Copilot進行修補,顯示產業對AI安全邊界的認知仍存在落差。LayerX強調,隨著AI逐漸成為使用者判斷資訊可信度的重要工具,若無法正確理解實際呈現內容,將可能導致錯誤建議甚至引發資安事件。

Preview image for Poisoned Typeface: How Simple Font Rendering Poisons Every AI Assistant, And Only Microsoft Cares - LayerX

Poisoned Typeface: How Simple Font Rendering Poisons Every AI Assistant, And Only Microsoft Cares - LayerX

Executive Summary: LayerX researchers have discovered how a simple custom font can compromise every AI system in the market. With nothing more than a custom font and simple CSS, we created a webpage where the browser renders instructions that would lead the user to execute a reverse shell, while the DOM text analyzed by AI […]

layerxsecurity.com
1 Like 0 Boosts

Comments (0)

No comments yet.