人工智能已經不再是一個獨立的、孤立的技術概念,而是貫穿網絡安全各個領域,AI智能體也已經從實驗室走入千家萬戶。
安恒信息CTO劉博向21世紀經濟報道記者表示,在大模型時代,人們對安全的感知比以往更為強烈。一方面,大模型涉及的數據量龐大且復雜;另一方面,在應用大模型時,往往需要處理大量敏感數據的交互。無論是個人還是企業都對此更加重視。
然而,AI的發展催生了前所未有的安全挑戰——攻擊與防御的邊界因技術迭代而模糊,傳統規則式防護體系在動態化、智能化的新型威脅前逐漸失效。
日前,在2025中國數谷·西湖論劍大會上,安恒信息董事長范淵指出,安全與智能密不可分,安全的邊界決定著智能的發展疆域,而智能的高度也將重塑安全的維度。
面對新興挑戰,行業正在探索新的防御范式。動態防御、AI對抗AI、隱私計算等新技術方向逐漸成為共識。然而,技術只是解決方案的一部分。標準體系的缺失、跨廠商協作的障礙、法律倫理的模糊地帶,都是需要全社會共同應對的課題。
安全挑戰加劇
大模型技術加速向金融、政務、企業等領域應用,多種安全風險相互交織、疊加放大。安恒信息首席安全官、高級副總裁袁明坤向記者表示,近兩年來,無論是攻擊的數量還是強度都有所增加。
傳統基于規則和特征匹配的防御體系,在面對AI驅動的動態化、智能化攻擊時顯得力不從心。數據泄露、模型濫用、協議漏洞等問題層出不窮,而攻擊者的手段正因AI的加持變得更加隱蔽和高效。
一方面,攻擊手段的智能化升級讓防御難度呈指數級增長。
袁明坤向記者表示,勒索病毒編寫、網絡釣魚等犯罪活動因AI技術門檻降低而激增。在過去,勒索病毒的編寫需要一定的技術門檻,但如今,借助AI,即使是那些原本不具備高超編程能力的人,也能夠制造出勒索病毒。這無疑給網絡安全帶來了巨大的威脅,網絡犯罪的規模和頻率都有可能進一步擴大。
在網絡安全的對抗過程中,AI技術的應用也使得攻擊手段變得更加復雜和多樣化。傳統的攻擊方式往往需要攻擊者手動使用各種工具進行嘗試,而借助大模型的推理能力,攻擊者可以更加高效地進行攻擊。
袁明坤表示,AI能夠自動地對目標系統進行分析和測試,找出潛在的漏洞,并且能夠根據已有的攻擊結果進一步推導出更多的攻擊點。這種攻擊能力的成倍放大,使得防守方面臨著更大的壓力。
另一方面,AI本身的安全問題也逐漸凸顯出來。目前,一些大型企業已經將AI技術廣泛應用于業務中,其業務的核心部分都依賴于AI。這就使得AI本身的安全性變得至關重要。數據的可見性、可用性以及數據流轉的通道等都成為了企業需要重點關注的問題。
智能體技術的普及帶來了全新的安全挑戰。通信協議是推動多智能體系統協同作業的關鍵,如Anthropic提出的MCP(Model Context Protocol,模型上下文協議)作為當前的主流標準,該協議在設計之初聚焦于功能協同架構的構建,但在安全體系設計上存在階段性不足。
“MCP協議安全架構存在先天性不足,在認證機制、權限管控體系以及數據安全防護等核心安全領域,當前協議框架尚未提供有效的技術解決方案。產業界已形成共識,需要額外疊加外部安全組件來彌補協議層面的安全缺陷。”劉博向記者表示。
因此,當MCP與大模型結合使用時,如果配置不當,可能會導致正常的大模型變成惡意模型。
安恒信息高級副總裁、研究院院長王欣向記者解釋道,目前,許多大模型采用無監督式訓練,在數據語料治理過程中,可能存在一些“臟數據”,這些數據可能被惡意利用。為了安全起見,通用模型廠商通常會進行價值觀對齊,但這種對齊很容易被突破。通過簡單的方式,攻擊者可以繞過價值觀對齊的防御體系,使模型執行惡意操作。
袁明坤向記者表示,如果AI系統被攻擊者入侵,那么企業的核心數據可能會被竊取或篡改,給企業帶來巨大的損失。因此,保障AI系統的安全,防止其被惡意利用,是未來網絡安全領域必須解決的重要課題。