從研究傳統軟件安全的角度來說,大模型作為一種軟件、一種系統、一種軟件產品,是否也存在傳統軟件安全領域的問題?是否也會被入侵?它所運行的系統是否也會被攻擊者控制,進而去控制大模型的行為?
9月7日至8日的騰訊數字生態大會上,騰訊安全團隊發起對大模型網絡安全的討論。騰訊安全玄武實驗室負責人于旸表示,大模型自身存在的一些安全問題。
具體來說,清華大學計算機科學與技術系教授朱軍表示,人工智能幾大要素——數據、模型算法和應用場景中,數據端存在的安全問題有隱私保護、儲存安全、數據惡意泄露等。模型算法端如目前使用較廣泛的深度學習,或經典機器學習模型,本身也可能存在安全問題。另外,當人工智能可以快速高效地生成一些以假亂真的內容時,它可能會引起監管和倫理上的風險,即應用端的安全問題。
(相關資料圖)
騰訊安全策略發展中心總經理呂一平大會期間與多位行業人士交流,發現大家對大模型所帶來的新的網絡安全問題已有關注。此外,安全大模型能否應用在類似于安全攻防環節中,也就是大模型成為了你的對手,如通過大模型高效生成社工腳本、生成惡意木馬等,這也是客戶比較關心的。
可能引發的安全危機該如何應對?于旸表示,人工智能技術在網絡安全行業的應用已有一段時間了,當時很多探索者將圖像算法運用在網絡安全檢測上,并取得了不錯的效果,但一直沒有得到特別大規模的應用。很多較為成功的案例僅僅聚焦在一些特定場景和領域,并未真正實現行業性的變革。由此可見,短期內深度學習相關技術在安全行業仍有一定的局限性。
這與深度學習技術難以獲得足夠多的數據有關,于旸歸納了三方面原因:第一,在網絡安全領域很難獲得足夠的打標數據;第二,如果用相關技術去研究漏洞,則需要有足夠多的漏洞數據去進行訓練,但現存的網絡安全漏洞量級并不足以形成足夠的、成熟的、可用的數據;第三,數據打標需要相關技術人員去操作,這需要消耗很多昂貴的技術人力。這些原因導致了深度學習技術在安全領域的應用存在掣肘。
這一局面有可能被大模型技術改變。于旸表示,當用大模型來開展一些檢測分析工作時,它不需要通過“投喂”大量相關數據進行學習訓練了,基于其強大的推理能力,在少量的調整下就可以實現指令的執行。
在于旸看來,大模型和深度學習等方法不太一樣,大模型可以使用工具,包括網絡攻防的工具、編程的工具等,通過借助外部工具并對工具處理結果進行分析,判斷是否需要再用別的工具,從而完成任務需求。這樣一來,大模型的能力越大,能夠改變的領域也越多。
但在眼下的風險應對舉措上,呂一平對記者表示,短期來看,騰訊云安全中心將發布類似于微軟AI Copilot的產品,幫助客戶分析安全事件,將安全運營、安全分析的能力門檻降低。另在7日上午的主峰會上,騰訊云總裁邱躍鵬發布了一款由玄武實驗室研發的隱私保護工具。通過一種生成式雙向脫敏技術,保障用戶在使用AIGC類產品時,隱私信息不會隨著prompt提交給模型方泄密。
長期來看,呂一平認為目前行業對大模型的關注度實在太高,但還遠未到廣泛應用的階段。安全是伴隨的屬性,伴隨著技術的應用落地才會逐漸誕生對應的策略。
“網絡安全產業之前一直面臨一個問題,有很多事情必須要依靠人去做,這就帶來了一個問題:成本居高不下。網絡安全威脅是全球化的,地球上每一分鐘都有還沒有睡覺的攻擊者,這種問題在之前可能都是矛盾,今天有了大模型技術的加持,我們看到相關的問題解決可能出現了曙光。”于旸稱。
如果從大模型看更大范圍的“智能化”趨勢,騰訊集團副總裁、騰訊安全總裁丁珂表示,產業互聯網進入“智能化”下半場,企業安全建設將面臨四個方面的挑戰:企業安全防御的半徑將大幅增加、遭遇攻擊后的反應窗口期將進一步縮短、辨別“人”和“機器”的難度增大、現存的安全“情報庫”逐漸失效。
在此趨勢下,丁珂提出三個調整思路:擁抱智能化時代,需要建立發展驅動的安全建設理念;建立可度量的安全體系,評估安全建設的有效性;應對智能化時代的攻防趨勢,企業需要打造內在自適應的“安全免疫力”。
關于我們| 聯系方式| 版權聲明| 供稿服務| 友情鏈接
咕嚕網 www.fyuntv.cn 版權所有,未經書面授權禁止使用
Copyright©2008-2023 By All Rights Reserved 皖ICP備2022009963號-10
聯系我們: 39 60 29 14 2@qq.com