生成式AI加速演進,新挑戰怎麼防

【環球時報報道 記者 馬俊】網絡安全如今深刻影響各國的政治、經濟、文化、社會等不同領域,越來越多的案例證明“沒有網絡安全就沒有國家安全”。特別是生成式AI的加速演進,帶來全新的安全挑戰。1月29日到30日在成都舉行的2026年網絡安全等級保護技術學術交流活動中,與會的業內專家給出了不同的“解題思路”。

據《環球時報》記者瞭解,由於生成式AI與生俱來的缺陷,它在快速發展的同時,也帶來包括數據污染、違規內容生產、機理不透明、能力濫用、意識形態滲透、模型缺陷、隱私泄露、深度僞造乃至知識產權保護、責任歸屬等各種突破傳統安全領域的新挑戰。

中國工程院院士鄔江興在本次活動中,圍繞當前AI安全治理挑戰作專題報告。他強調,各國AI競爭的本質,是一場終點線模糊的馬拉松式耐力比賽,決定勝負的關鍵並非哪個國家取得了突破性技術,而是誰能更高效地推動AI在各生態系統實現規模化滲透應用。但AI想要大規模應用,首先就面臨“安全信任壁壘”的問題——對於大衆用戶來說,需要確認AI到底有多安全,才能“敢用”;對於電力、金融、政務等關鍵行業來說,則只有瞭解了AI犯錯會造成多大的影響、責任如何界定,才談得上“敢推廣”;而從監管的角度說,更是需要知道AI安全如何去衡量、監督和處置,才談得上“敢管”。

鄔江興院士表示,從當前生成式AI的基本原理來說,它的基礎就存在安全邊界不確定的內生缺陷。“AI系統的數字化底座——底層計算平臺和操作系統基於存儲程序控制構造,不可能徹底杜絕設計的脆弱性(例如漏洞等),由此必然導致底座安全邊界的不確定。”美國人工智能公司OpenAI的研究更是從數學上證明,大模型的風險根植於訓練數據的統計學本質,因此出現“機器幻覺”是必然的,無法根除。

這也是傳統方法應對“AI犯錯”時遭遇的困境:優化訓練數據、改進訓練方法和模型結構等手段,不可能徹底消除AI安全邊界的不確定性;而人類或傳統機器監管AI,也面臨海量的AI“管不過來也管不了”的問題。即便是在網絡安全領域常用的組織“紅藍對抗”,通過實戰手段測試系統的安全防禦能力,在當前大部分AI應用場景中也顯得無能爲力——因爲“紅藍對抗”是分爲明確的攻擊方和防禦方,但當前大部分AI問題都源於“無攻擊方的內生失效”。

針對這些困局,鄔江興院士在報告中提出了AI內生安全理論,讓AI安全性由構造自身效應而非後驗迭代修補來保證,他建議效仿汽車工業一整套的質量安全監管體系,在AI領域也建立有公信力的安全評測標準,讓政府監管“有據可依”,讓企業知道怎麼去“自律”,讓用戶放心使用。

在活動現場,還頒發了中國首個第五級信息系統備案證明,並同步發佈《生成式人工智能網絡安全等級保護與檢測技術白皮書》。白皮書在公安部網絡安全保衛局統籌指導下,由公安部網絡安全等級保護中心、網絡安全等級保護與安全保衛技術國家工程研究中心聯合政產學研用30家單位編制,經院士及權威專家把關,系統梳理生成式人工智能面臨的突出安全風險,探索等級保護實施路徑並提出工作建議,爲產業規範有序發展提供技術支撐。

中國工程院院士吳建平表示,在人工智能與計算機互聯網爲基礎的網絡空間加速融合背景下,需要協同推進網絡安全等級保護、關鍵信息基礎設施保護、數據安全保護,夯實底層技術,構建動態防護體系,堅持開放協同創新,築牢網絡強國安全屏障。

中國科學院院士馮登國表示,當前數字技術與實體經濟深度融合,新技術新業態快速湧現,安全威脅的隱蔽性和傳導性提升,面對新形勢如何構建與數字時代匹配的等級保護制度體系,推動等級保護向實戰化、體系化、智能化轉型,是大家必須直面的重大課題。

中國社科院法學所研究員支振鋒強調了加快《網絡安全等級保護條例》立法的必要性和緊迫性,他指出當前法律、行政法規等各層面已具備推進立法條件,應進一步健全網絡安全等級保護工作機制。



Scroll to Top