探析人工智能對網(wǎng)絡(luò)安全的真正潛在影響
人工智能會變得更加智能嗎?足以顛覆計(jì)算機(jī)安全嗎?人工智能已經(jīng)可以根據(jù)人們的要求制作任何風(fēng)格的藝術(shù)作品,而這讓藝術(shù)界感到非常驚訝。AI能夠?qū)懺?,能夠利用龐大的存儲?shù)據(jù)庫。既然AI能夠像詩人一樣寫詩,又可以提供綜合搜索的最佳結(jié)果,那么試想一下,為什么它們不能破除安全協(xié)議呢?
沒有人能給出這個(gè)答案,因?yàn)閷τ谶@個(gè)問題,答案是復(fù)雜的、極具變化的,且讓人捉摸不透的??梢岳萌斯ぶ悄芨p易地保護(hù)計(jì)算機(jī)的某些部分免受攻擊。但是其他部分就沒那么容易了,甚至是永遠(yuǎn)無法使用智能,無論是人腦還是人工智能。雖然知道這很困難,但是仍有跡可循。因?yàn)锳I模型快速發(fā)展,人工智能在哪里能用的上,都是未知數(shù)。最危險(xiǎn)的言辭莫過于:“人工智能永遠(yuǎn)不會有危險(xiǎn)?!?/p>
定義人工智能和機(jī)器學(xué)習(xí)
“人工智能”和“機(jī)器學(xué)習(xí)”術(shù)語經(jīng)?;Q使用,但它們并不相同。人工智能是指可以模仿人類行為或超越人類行為的技術(shù)。機(jī)器學(xué)習(xí)是 人工智能的一個(gè)子集,它使用算法來識別數(shù)據(jù)中的模式,以便在沒有人為干預(yù)的情況下獲得預(yù)判。機(jī)器學(xué)習(xí)的目標(biāo)是幫助人類或計(jì)算機(jī)做出更好的決策。實(shí)際上,今天在商業(yè)產(chǎn)品中被稱為人工智能的大部分都是機(jī)器學(xué)習(xí)。
人工智能具有優(yōu)勢,可以立即對防護(hù)和入侵生效。他們可以在大量數(shù)據(jù)中搜索模式,并經(jīng)??梢哉业綄⑿率录c舊事件相關(guān)聯(lián)的方法,以此來應(yīng)對未知。
許多機(jī)器學(xué)習(xí)技術(shù)具有很強(qiáng)的統(tǒng)計(jì)性,針對計(jì)算機(jī)系統(tǒng)和加密算法的許多攻擊也具有這種特性。新機(jī)器學(xué)習(xí)工具包廣泛傳播,攻擊者和防御者輕而易舉就可以利用這些算法。攻擊者使用它們來搜索漏洞,防御者使用它們來觀察攻擊者的跡象。
事實(shí)上,人工智能有時(shí)候也達(dá)不到人們的預(yù)期,會變成“人工智障”。它只能表達(dá)其訓(xùn)練數(shù)據(jù)集中的內(nèi)容,并且可以像計(jì)算機(jī)瘋狂輸出那樣,用文字表達(dá)出來。因?yàn)槿斯ぶ悄艿氖褂镁哂须S機(jī)性,因此有些人也將它稱之為“溫度”,像氣候變化一樣不可預(yù)測。
人工智能的網(wǎng)絡(luò)安全用例
近期大家對ChatGPT一定十分熟悉,有人認(rèn)為它正在“掀起新一輪AI革命”。那么問題來了,ChatGPT是否會淪為黑客的攻擊工具?
答案是肯定的。有網(wǎng)絡(luò)安全研究實(shí)驗(yàn)室發(fā)現(xiàn)已有攻擊者在使用 ChatGPT 進(jìn)行精準(zhǔn)投遞釣魚軟件,開展網(wǎng)絡(luò)詐騙且已有黑客利用其代碼編寫功能以及信息編寫功能開發(fā)出了惡意軟件。
ChatGPT可以自動生成攻擊工具。毫無基礎(chǔ)的新手可以通過ChatGPT自動生成攻擊工具,這樣導(dǎo)致的直接后果是攻擊數(shù)量大幅上升。其次,ChatGPT可以快速更新攻擊工具。ChatGPT的迭代和更新速度非???,同樣會讓攻擊者的能力和攻擊方式加快進(jìn)化,發(fā)現(xiàn)漏洞的時(shí)間變短,新的攻擊武器的形成時(shí)間也會相應(yīng)縮短。
比如,黑客在惡意站點(diǎn)"chat-gpt-pc.online",提供了Windows版的ChatGpt的pc客戶端,實(shí)則是利用Redline竊密木馬感染訪問者,該頁面使用官方ChatGPT徽標(biāo)來誘騙用戶重定向到惡意站點(diǎn)。其次,黑客在Google play和第三方Android應(yīng)用商店推廣虛假的ChatGPT應(yīng)用,借此將惡意軟件推送到用戶設(shè)備上運(yùn)行。
其實(shí)AI對網(wǎng)絡(luò)安全行業(yè)影響的案例有很多,不止于此,且未來也不會減少。網(wǎng)絡(luò)安全是非常復(fù)雜的,防御系統(tǒng)需要關(guān)注數(shù)學(xué)、網(wǎng)絡(luò)分析和軟件工程的細(xì)分領(lǐng)域。更復(fù)雜的是,人類是系統(tǒng)的重要組成部分,了解人類的弱點(diǎn)至關(guān)重要。
該領(lǐng)域也是許多分支學(xué)科的混合體,而且這些分支學(xué)科可能非常不同。例如,通過檢測惡意數(shù)據(jù)包來保護(hù)網(wǎng)絡(luò)層的方法在強(qiáng)化哈希算法方面可能毫無用處。
Resilian首席執(zhí)行官Paul Kocher說,“顯然,在某些領(lǐng)域,你可以在人工智能方面取得進(jìn)展,比如在錯(cuò)誤搜索和仔細(xì)檢查代碼方面,AI比模糊測試(引入小的隨機(jī)錯(cuò)誤以觸發(fā)缺陷的過程)更好?!盤aul已經(jīng)探索使用新技術(shù)來破解密碼算法了。
有些人使用AI已經(jīng)爐火純青了。舉個(gè)最簡單的例子,可以編纂舊知識并重新應(yīng)用它。Coinbase的主管Conor Grogan要求ChatGPT查看在以太坊區(qū)塊鏈上運(yùn)行的實(shí)時(shí)合約,之后GPT列出了一個(gè)簡明的弱點(diǎn)列表,并給到了修復(fù)它們的建議。
人工智能是如何做到這一點(diǎn)的?人工智能的機(jī)制或許是模糊的,但它是基于過去不管什么形式的人們對于人類弱點(diǎn)的公開討論。人工智能能夠?qū)⑿屡f知識關(guān)聯(lián),并列舉要解決的問題,所有這些都無需任何自定義編程或?qū)<抑笇?dǎo)。
微軟開始將這種方法商業(yè)化。它訓(xùn)練了AI Security Copilot,這是ChatGPT4的一個(gè)版本,具有協(xié)議和加密算法的基礎(chǔ)知識,因此它可以響應(yīng)提示并協(xié)助人類。
有些人正在利用嵌入大型語言模型中的龐大的知識庫。Claroty的研究人員依靠ChatGPT節(jié)省時(shí)間,ChatGPT提供百科全書式的編碼知識。他們能夠使用ChatGPT編寫攻破漏洞所需的代碼,從而贏得黑客競賽。
攻擊者還可以利用AI的能力來塑造和重塑代碼。ReliaQuest的首席技術(shù)官喬·帕特洛(Joe Partlow)表示:“我們真的不知道人工智能實(shí)際上是如何“思考”的,你會看到像Codex或Github Copilot這樣的代碼完成模型已經(jīng)在幫助人們編寫軟件,我們已經(jīng)發(fā)現(xiàn)人工智能生成的惡意軟件變種。舉個(gè)例子,利用AI幫助C競賽獲勝者進(jìn)行模型培訓(xùn),幫助設(shè)計(jì)有效的后門?!?/p>
一些成熟的公司正在使用人工智能來監(jiān)測企業(yè)環(huán)境中的網(wǎng)絡(luò)異常和其他問題,他們依靠機(jī)器學(xué)習(xí)和統(tǒng)計(jì)推斷的某種組合來標(biāo)記潛在可疑行為。
使用AI查找弱點(diǎn),破解加密
最近一項(xiàng)研究顯示,51%的密碼可以在不到一分鐘內(nèi)被AI密碼破解。
這意味著,我們使用傳統(tǒng)的密碼保護(hù)個(gè)人賬戶的方法已經(jīng)不再安全。這些密碼很可能是常用的、容易猜測或者本身就不夠復(fù)雜,給黑客留下了可乘之機(jī)。
雖然AI已經(jīng)被用于尋找漏洞,破解密碼,但是AI對數(shù)據(jù)流的了解程度是有限的,尤其是那些加密的數(shù)據(jù)流。如果攻擊者能夠確定哪些加密數(shù)據(jù)包是好是壞,他們將能夠破壞底層加密算法。
再提一個(gè)深層次的問題,人工智能能否在網(wǎng)絡(luò)安全的最基層中找到漏洞。目前還沒有重大公告,但已經(jīng)開始有人各執(zhí)一詞了,有些人認(rèn)為可以,而有些人認(rèn)為不可以。
關(guān)于這個(gè)問題,尚無清晰的答案。雖然人工智能可能像人類一樣行動,但在它們本質(zhì)完全不同。大型模型是按多個(gè)層次結(jié)構(gòu)排列的統(tǒng)計(jì)關(guān)系的集合,最近的許多進(jìn)展都來自于參數(shù)和權(quán)重?cái)?shù)量的快速擴(kuò)展。
構(gòu)建大型機(jī)器學(xué)習(xí)模型的許多最常見方法的核心是使用大量的線性數(shù)學(xué),將非常大的矩陣和張量的序列鏈接在一起。線性度是算法的關(guān)鍵部分,因?yàn)樗塬@得一些可用于訓(xùn)練的反饋。
然而,最好的加密算法是被設(shè)計(jì)成非線性的。像AES或SHA這樣的算法依賴于通過一組稱為S盒的函數(shù)傳遞數(shù)據(jù)來反復(fù)加擾數(shù)據(jù)。這些功能經(jīng)過精心設(shè)計(jì),具有高度非線性。更重要的是,算法的設(shè)計(jì)者確保它們被檢驗(yàn)過很多次,確??梢苑乐挂恍┢毡榈慕y(tǒng)計(jì)攻擊。
其中一些攻擊與現(xiàn)代AI有很多共同之處。幾十年來,密碼學(xué)家一直通過加密算法使用大量統(tǒng)計(jì)數(shù)據(jù)來對數(shù)據(jù)流進(jìn)行建模,其方式與AI對其訓(xùn)練數(shù)據(jù)進(jìn)行建模的方式大致相同。過去,密碼學(xué)家利用他們對加密算法的了解來調(diào)整統(tǒng)計(jì)數(shù)據(jù)。
最著名的例子之一通常被稱為差分密碼分析。雖然它首先由Adi Shamir和Eli Biham公開闡述,但NIST的數(shù)據(jù)加密標(biāo)準(zhǔn)等早期算法的一些設(shè)計(jì)者表示,他們理解這種方法并針對它強(qiáng)化了算法。像AES這樣針對差分密碼分析進(jìn)行強(qiáng)化的算法應(yīng)該能夠承受來自AI的攻擊,這些AI部署了大部分相同的線性統(tǒng)計(jì)方法。
還有更進(jìn)一步的基礎(chǔ)問題是許多公鑰算法依賴于具有數(shù)千位精度的數(shù)字。加州大學(xué)圣地亞哥分校的密碼學(xué)家Nadia Heninger解釋說:“這只是一個(gè)實(shí)現(xiàn)細(xì)節(jié),但AI可能比這更深入,因?yàn)檫@些模型的權(quán)重是浮動的,精度非常重要?!?/p>
許多機(jī)器學(xué)習(xí)算法經(jīng)常在精度上偷工減料,因?yàn)樵谝粋€(gè)草率、俚語和多變的語法時(shí)代,在人類語言等不精確的領(lǐng)域無需做得如此精確。那么這也說明一些現(xiàn)成的工具不適合密碼分析,通用算法可能會進(jìn)行調(diào)整,這一方向也已有人開始研究。
更大的規(guī)模和大型符號模型可能讓AI威脅加劇
巴菲特曾向記者表示,AI確實(shí)帶來了社會變革,但目前尚沒有大規(guī)模的實(shí)驗(yàn)結(jié)果來支撐人工智能發(fā)展對人類有益這一觀點(diǎn)。也就是說,大規(guī)模的AI發(fā)展影響真的那么大嗎?
如果AI真的能夠更加智能,那么和舊的差分算法相比,AI也許可以找到更多的漏洞,甚至一些原有的技術(shù)可以用來更有效地指導(dǎo)機(jī)器學(xué)習(xí)算法。
一些人工智能科學(xué)家正在設(shè)想如何將大型語言模型的絕對優(yōu)勢與更合乎邏輯的方法和形式結(jié)合起來。部署用于推理數(shù)學(xué)概念的自動化機(jī)制可能比簡單地嘗試模仿訓(xùn)練集中的模式要強(qiáng)大得多。
《量子時(shí)代》的作者、安全研究員西姆森·加芬克爾(Simson Garfinkel)解釋說:“這些大型語言模型缺乏它們實(shí)際生成的符號模型,沒有理由假設(shè)安全屬性將被嵌入,但已經(jīng)有很多使用常規(guī)方法查找安全漏洞的經(jīng)驗(yàn)?!?/p>
人工智能研究人員正在努力通過用更好的符號推理嫁接大型語言模型來擴(kuò)展它們的力量。例如,Wolfram Alpha的開發(fā)者之一Stephen Wolfram解釋說:“這是我們的目標(biāo)之一,現(xiàn)在在 Wolfram 語言中,我們擁有大量事物的內(nèi)置計(jì)算知識,但是對于一個(gè)完整的符號話語語言,我們必須建立世界上一般事物的額外'演算':如果一個(gè)物體從A移動到B,從B移動到C,那么它就會從A移動到C之類的。”也就是說事物的延申要被考慮進(jìn)去。
Whitfield Diffie是一位密碼學(xué)家,他是公鑰密碼學(xué)領(lǐng)域的先驅(qū),他認(rèn)為像AI這樣的方法可能能夠在新的、未開發(fā)的數(shù)學(xué)領(lǐng)域取得進(jìn)展。AI的想法可能與人類不同,甚至有自己的價(jià)值。
密碼分析領(lǐng)域只是尚未經(jīng)過測試的數(shù)學(xué)領(lǐng)域的一個(gè)??赡苄允菬o窮無盡的,因?yàn)閿?shù)學(xué)本身是無限的。粗略地說,如果人工智能能夠?yàn)殛J入價(jià)值超過成本的系統(tǒng)做出貢獻(xiàn),人們就會使用它,但真正的問題是如何做到。
來源
https://www.csoonline.com/article/3692868/what-is-artificial-intelligence-s-true-potential-impact-on-cybersecurity.html