網絡安全要保護的不是機器,而是人
- 人類社會正面臨大洪水級別的文化和精神危機,而拯救人類的關鍵——網絡安全行業,卻并未意識到自己有此責任和義務。
- 如果精通網絡安全技術和風險管理的專業人士都無法逃避“人傳人惡意軟件”和算法的奴役,我們如何保護“網絡安全”。
1992年,尼爾·斯蒂芬森在《雪崩》這部小說里,描繪了一種能從硅芯片入侵人類大腦的惡意軟件。這不僅是對現代數字生活的絕妙隱喻,更像是一個預言,引發了一個特別有趣的問題:如果人類可能被自己的技術傷害,那么網絡安全需要保護的就不僅是數據,還應該包括我們自己!
在數字的荒原上,我們如何自保
作為網絡安全人士,我們努力定義生成式AI可以安全執行的任務,同時也在思考這些結果如何融入法律和倫理體系。這不僅是在保護我們的商業利益,更是在保護我們的文化,這是一個民族,一個國家的基石。
作為自詡“線中幽靈”、“白帽騎士”的網絡安全精英人士,你不能一方面夸耀自己是AI技術安全專家,同時又對在線仇恨言論和虛假信息束手無策。
通過算法繭房和社交媒體散播虛假或仇恨信息,操控民眾的行為,堪稱“人類惡意軟件”。近年來世界各地發生的極右翼騷亂和暴力活動就是明顯的例子。這些問題存在于技術與人的交界處,必須通過技術手段來解決。網絡安全的核心,就是在這些界面檢測和消除威脅。
貪婪、愚蠢、懶惰的“草臺班子”
在討論如何應對AI時代的新安全威脅之前,我們不妨先回顧一下網絡安全行業停滯不前的癥結。與大多數信息技術和商業管理領域不同,網絡安全是一個揉雜虛擬與物理,數學與人性的混沌世界,明天和意外,你不知道哪個先來;警報和誤報,你不知道哪個更多。
我們已經建成了一個全球性的機器網絡,大部分時間它似乎是完全符合“工具理性”的,并未主動攻擊我們。網絡安全重大事件的背后,通常是一些難以預見但又顯而易見的問題——大多數情況下,都是混跡于各大科技公司中的愚蠢、貪婪和懶惰的“草臺班子”的杰作。
這種情況在安全軟件中尤為嚴重。PC殺毒軟件,常常以“全家桶”的形象出現,誘騙或強制用戶安裝,比病毒還更頻繁地拖慢電腦甚至崩潰。在消費者沒有選擇權的情況下,這種軟件滋養了安全企業的貪婪,卻沒有提供高質量的用戶體驗。(事實上主流搜索引擎的墮落也與此類似)
盡管過去幾十年軟件設計似乎有所進步,但人性本質上沒有改變。CrowdStrike今年因為推送了一個錯誤更新導致全球計算機大規模藍屏死機。CrowdStrike的公關部門一再宣稱這不是“安全事件”,也不是“疏忽”,而是一個“意外”。面對達美航空這種遭受重大損失的客戶,CrowdStrike的律師甚至嘲笑客戶的恢復工作“比同行差勁”。
事情的真相很簡單,問題源自CrowdStrike的質量保障(QA)和測試流程的漏洞。是因為CrowdStrike愚蠢地認為不需要QA?還是因為貪婪而過度節省成本?還是因為某些網絡安全公司的關鍵流程KPI不包括網絡安全?
Meta公司的“草臺班子”也上演了一場類似的滑稽戲,該公司的機器學習驅動的提示注入檢測器,剛一推出就立刻遭到了提示注入攻擊。這種攻擊簡單到寵物狗都能完成(只需要連續敲擊幾下空格鍵)。通常,新軟件的重大缺陷大多是QA流程出現了問題,顯然Meta的軟件團隊沒有發現這個顯而易見的漏洞。
通往奴役之路的AI算法
Meta和Google等科技巨頭宣稱他們具備大規模執行類人任務的AI能力時,卻聲稱無法解決一個高度危險的人與技術的界面問題:社交媒體和內容分發服務的內容選擇算法如何影響(操縱)人類心理來提高用戶的活躍度和參與度。
這些操縱大眾心智和行為的“人類惡意軟件”,往往是(惡意)內容分發平臺中的大語言模型驅動的機器學習的“基本功能”。我們需要監測和檢測界面中的攻擊,觀察其引發的行為變化,在不影響合法使用的情況下進行大規模安全監控。
最大的安全威脅不是惡意軟件和黑客組織,而是:大型科技公司一方面自吹自擂AI技術和安全能力無與倫比,同時又宣稱沒法解決在線仇恨言論、虛假信息、信息繭房、內容污染和產品成癮問題。
是時候拆穿科技巨頭(科技封建領主)的謊言了。讓我們問問這些公司,他們打算如何利用他們的核心技術來解決日益嚴重的文化危機和反智、反社會行為?如何停止入侵和摧毀原生文化的生產和傳播系統?我們也不妨問問自己,作為精通最佳網絡安全技術和實踐的專業人士,如果我們自己都無法識別、逃避、反抗人類惡意軟件和AI算法的奴役,我們如何保護“網絡安全”。