AI時代下,安全形勢有何新變化?
近年來,全球人工智能產業呈現蓬勃發展勢頭,安全形勢也變得日趨復雜。
2023年7月18日,2023中國互聯網大會AI安全論壇在北京舉辦,與會嘉賓共同圍繞著“探尋AI下的安全新變局,探索數字安全建設發展新機遇”進行了分享。
當前,我們站到了一個新的歷史拐點,互聯網不僅進入了萬物互聯3.0時代,也進入了萬物皆可AI的時代。
中國互聯網協會副理事長黃澄清在致辭中表示,未來的世界應該是一個人工智能驅動的世界。我們要統籌發展和安全牢牢抓住新一輪科技革命和產業變革的歷史機遇,加快人工智能產業創新發展的步伐,推動與實體經濟深度融合,達到新水平,推動行業規范發展,實現新突破,治國經邦人才為急,無論是AI走入產業還是走進家庭,我們期待涌現一批行動力強的實踐者,共同助力我國AI邁上新的臺階。
據統計,截至2022年北京擁有人工智能核心企業數量,人工智能算力發展水平,人工智能領域核心技術的人才占比和人工智能論文發展數量在全國均列第一。不過,人工智能在賦能產業應用,提高生產效率和質量,降低成本和風險的同時,也給我們帶來了一系列新的安全應用風險與挑戰。
對于人工智能產業未來的發展,北京市通信管理局黨組成員、副局長王暉提出三點建議:
一是堅持發展與安全并重。只有不斷探索并完善與創新發展相適應的安全保障方式,在創新發展與風險規避之間尋求平衡,方能行穩致遠。
二是堅持權利和義務并重。企業要積極用好政策紅利,發揮自身優勢,加快人工智能領域的創新發展,同時要積極履行企業的主體責任,要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全可靠可控。
三是堅持自主與協作并重。人工智能技術是戰略性新興技術,需要掌握核心技術和知識產權,提高自主創新能力和競爭力,同時人工智能技術的發展需要跨學科跨領域的協作,需要企業高校、科研機構等各方合作,共同開展技術研發、人才培養和產業應用等工作。
今年以來,國產的大模型不斷涌現。根據《中國人工智能大模型地圖研究報告》顯示,截至2023年5月28日,中國10億參數規模以上的大模型已發布79個。與此同時,啟明星辰、天融信、深信服、瑞星、墨云科技等公司將大模型用于網絡安全的工作。另外,還有一些公司專門訓練網絡安全領域垂直的大模型,并應用于產品形態中。
在中關村國家實驗室、清華大學教授李丹看來,大模型在安全領域的應用場景主要集中在三個方面:
第一,代碼的漏洞挖掘。大模型可以高效處理很多的代碼數據,并且利用自身強大的學習能力和脫敏能力,能夠快速發現代碼里很多潛在的漏洞,同時根據上下文和目標自動給出合適的代碼的修改方案,提高代碼的合理性。
第二,通過大模型的能力開發網絡安全運維機器人??梢曰诖竽P偷奈谋纠斫馍赡芰?、代碼的理解及生成能力、網絡安全風險評估值的規則引擎,以及像安全情報、樣本庫、知識庫等進行精調,形成一個網安領域的垂直大模型,降低在網安領域對運維人員的專業要求,并且提高實時響應的能力。
第三,自主進化攻防演練?;诖竽P徒⒓t藍對抗,就像AlphaGo機器人通過虛擬對抗模擬實際對弈一樣。可以將很多攻防工具集、攻防資源池,甚至自動發現的一些零日漏洞等,分別集成到紅藍隊中,進行自動對抗,給網絡安全領域帶來很多新的技術發展的機會和變量。
值得一提的是,為了促進AI安全產業的快速發展,天翼安全科技有限公司中國電信安全公司(以下簡稱“電信安全”)發起了《共建安全大模型高質量數據集》的倡議。具體倡議如下:
一、數據共享:鼓勵安全領域的組織共享其積累的高質量安全數據集,包括但不限于:安全領域知識、惡意代碼樣本、安全處置經驗等。承諾遵循相關法律法規來確保數據安全共享。
二、質量為先:倡導各位業界專家共同努力,確保共建的數據集滿足質量標準,滿足安全領域數據的三大特性:準確性、專業性和時效性。
三、有效流通:致力構建一個平等的合作生態。首先,在數據脫敏的前提下,推進數據在合作機構之間的有效流通;后續將逐步開放給業界的專業研究人員。
四、合法合規:承諾遵循國家網信辦、工信部等七部委《關于生成式人工智能服務管理暫行辦法》(第七條、第八條)關于訓練數據處理活動、數據標注要求的相關準則;承諾遵循中共中央、國務院《關于構建數據基礎制度更好發揮數據要素作用的意見》、工信部印發《工業和信息化領域數據安全管理辦法(試行)》以及全國信息安全標準化技術委員會印發《信息安全技術網絡安全信息共享指南》(征求意見稿),確保數據要素生產流通使用全過程的合法合規。
綜上,電信安全將“數據共享、質量為先、有效流通、合法合規”作為整體指導方針,通過共建安全大模型高質量數據集,促進AI安全產業的合理有序發展。我們邀請安全行業的各方共同參與,共同努力,共建AI安全的未來。
寫在最后:
總的來說,對于網絡安全領域來說,AI技術的不斷發展可謂是機遇與挑戰并存。一方面,AI應用落地將帶來新的安全風險;但另一方面,AI也會提升安全運營的可見性和生產力。
面向未來,只有加強AI技術安全,避免AI技術可能帶來的風險,并引導其始終在法律的紅線內運行,才能推動AI技術的健康發展,并在網絡安全領域充分發揮自身價值。