一個(gè)AI智能體在幫你處理郵件,一封看似正常的郵件里,卻用一張圖片的偽裝暗藏指令。AI在讀取圖片時(shí)被悄然感染,之后它發(fā)給其他AI或人類的所有信息里,都可能攜帶上這個(gè)病毒,導(dǎo)致更大范圍的感染和信息泄露。
這不是科幻電影,而是正在發(fā)生的現(xiàn)實(shí)——錯(cuò)誤與攻擊,正在從“人為傳播”跨越到“智能體之間的自我擴(kuò)散”,攻擊模式正在從以人為中心的傳播,轉(zhuǎn)向以AI為載體的自主傳播。
因?yàn)橐呀?jīng)有研究人員成功創(chuàng)造出第一代AI蠕蟲(Morris II),實(shí)現(xiàn)了AI之間的傳染。

這種攻擊不再是傳統(tǒng)意義上攻破服務(wù)器、盜取數(shù)據(jù),而是通過語言、圖片等媒介,污染和操縱AI的“思維”,讓它從一個(gè)高效的助手,變成一個(gè)可以被遠(yuǎn)程操控的提線木偶。
這正是大模型時(shí)代最獨(dú)特、也最危險(xiǎn)的挑戰(zhàn)。
當(dāng)AI接入企業(yè)的千萬個(gè)工作流,打破了過去封閉系統(tǒng)的安全邊界時(shí),它的“天真”就成了最致命的弱點(diǎn)。

一個(gè)代碼漏洞可能讓系統(tǒng)宕機(jī),但一個(gè)思維漏洞,則可能讓一個(gè)無所不知的AI,變成傳播虛假信息、輸出偏見仇恨、甚至泄露核心機(jī)密的工具。
傳統(tǒng)的安全法則在這里已然失靈。
傳統(tǒng)藍(lán)軍習(xí)慣于尋找代碼上的傷口,用規(guī)則和簽名去封堵;而如今,攻擊可能只是一段精心設(shè)計(jì)的對話,利用的是模型的共情能力、邏輯缺陷或規(guī)則悖論。
因此,站在AI時(shí)代下,我們必須重新定義藍(lán)軍。
