ChatGPT玩的好,牢飯早晚少不了?
要說2023年初網絡平臺最火爆的,無疑是人工智能領域新寵——智能聊天機器人模型ChatGPT,吸引了無數網民與它進行“人模人樣”的交流互動,因為它不僅能充分理解人類提出的問題,給出不再“人工智障”的答復,還會切實投入到諸多生產力實踐中,如編程、制圖、腳本攥寫,甚至能詩情畫意地創作詩歌等文案。
一時間,人們紛紛開始討論:以ChatGPT為代表的人工智能是否會在不久的將來取代大量人類所從事的職業?其實,在探討這個問題之前,我們更需要警惕的是,誕生于網絡世界的它存在極大的安全風險,甚至是面臨法律風險。正如圈內流傳的段子:ChatGPT玩的好,牢飯早晚少不了?
ChatGPT的誕生:天資聰明,但仍不“夠格”
ChatGPT(Chat Generative Pre-Trained Transformer,全稱聊天生成式預訓練轉換器)是由全球領先的人工智能公司 OpenAI推出的人工智能聊天機器人模型,誕生于2022年11月30日。通過利用人類反饋強化模型技術,讓人類偏好作為獎勵信號來微調模型,從而不斷學習人類語言,做到真正像人一樣聊天交流。正是由于它真正披上了如真人般的外衣,ChatGPT自問世以來就迅速火爆全球。截至2023年1月底,ChatGPT月活用戶數突破1億,成為全球用戶增速最快的爆款應用之一。
就在ChatGPT越發施展它多面手的能力時,人們也越發開始焦慮:自己的飯碗是否不保?就像過去機器解放了人力、取代大量人工勞動一樣,歷史的發展很可能會推動人工智能進一步參與到人類的工作當中,用更少的人力完成同樣的工作內容。但就現在的技術水平,要完全走到這一步,目前并沒有可以預期的時間表,以ChatGPT為代表的人工智能還僅僅停留在初期探索階段,雖然能夠在與人類的對話中不斷模仿、學習,但基礎仍然是在大量文本和學習模型的基礎上不斷調試,所做出的回答全部來源于網絡,并不能真正主觀理解人類語言的真實含義,也很難就具體真實場景給出切合實際的答案。
當ChatGPT碰到未經大量語料訓練的專業領域問題,給出的答案往往并不能回答實際問題,同樣,也不具備人類擅長的引申能力。比如下圖,在回答一個氣象學相關的問題時,由于氣象學領域相對小眾、復雜,在未有該領域足夠內容的訓練下,ChatGPT給出了如同“營銷號”般沒有實質性內容的答復。因此,即便ChatGPT能夠處理日常工作,也將僅僅是一些重復性、不需要過多創造性的工作。
可即便如此,ChatGPT在網絡安全領域依然能夠發揮出積極作用,有望成為網安人的得力幫手。
ChatGPT 在網絡安全方面的優勢
檢測易受攻擊的代碼
ChatGPT 可以幫助安全人員對代碼進行安全檢測。經初步測驗,若復制一段易受攻擊的代碼,讓 ChatGPT 對其進行分析,該工具可快速識別出其中的安全問題,并就如何修復給出具體建議。雖然還存在一些不足,但對于想要快速檢查其代碼片段是否存在漏洞的開發人員來說確實是一個實用工具。隨著越來越多的企業正在推動將安全性內置到軟件開發工作流程中,ChatGPT所具備的準確快速的檢測能力可以有效提高代碼安全性。
任務自動化
ChatGPT 有望進一步加強腳本、策略編排、安全報告的自動化,比如為滲透測試報告編寫修復指南。ChatGPT 還可以更快地寫出大綱,這有助于在報告中添加自動化元素,甚至可以為員工提供網絡安全培訓課程。在威脅情報方面,ChatGPT有望顯著提高情報效率和實時信任決策,部署比現階段訪問和身份模型更高的置信度,形成關于訪問系統和信息的實時結論。
ChatGPT 在網絡安全方面的風險
任何一項新技術往往都存在弊端與風險, ChatGPT在幫助人類讓安全產品更加智能化、輔助人類應對安全威脅的同時,基于信息搜集與再利用工作原理,它是否會逾越安全邊界,產生各類安全風險?此外,雖然ChatGPT 服務條款明確禁止生成惡意軟件,包括勒索軟件、鍵盤記錄器、病毒或“其他旨在造成一定程度危害的軟件,但在黑客手中,ChatGPT也是否仍會化為“魔爪”,讓網絡攻擊更加廣泛、復雜?
ChatGPT本身的安全風險
由于ChatGPT需要廣泛搜集網絡資料以及與人的對話中獲取信息來訓練模型,預示著它同樣具備獲取并吸收敏感信息的能力。據硅谷媒體報道,亞馬遜律師稱,他們在ChatGPT生成的內容中發現了與公司內部機密十分相似的文本,可能是由于一些亞馬遜員工在使用ChatGPT生成代碼和文本時輸入了公司內部數據信息,該律師擔心這些數據成為ChatGPT用來進行迭代的訓練數據。而微軟內部的工程師也警告員工,在日常工作使用時不要將敏感數據發送給OpenAI終端,因為OpenAI可能會將其用于未來模型的訓練。
這也涉及到另一個問題:從互聯網搜集海量數據是否合規?歐洲數據保護委員會(EDPB)成員Alexander Hanff質疑,ChatGPT是一種商業產品,雖然互聯網上存在許多可以被訪問的信息,但從具有禁止第三方爬取數據條款的網站收集海量數據可能違反相關規定,不屬于合理使用,此外還要考慮到受GDPR等保護的個人信息,爬取這些信息并不合規,而且使用海量原始數據可能違反GDPR的“最小數據”原則。
同樣的,當ChatGPT依據人類語言進行訓練時,一些涉及個人的數據是否能夠被有效刪除?根據OpenAI官網公布的隱私政策,OpenAI并未提及類似歐盟GDPR等數據保護法規,在“使用數據”條款里,OpenAI承認會收集用戶使用服務時輸入的數據,但未對數據的用途作進一步說明。
根據GDPR第17條,個人有權要求刪除其個人數據,即“被遺忘權”或“刪除權”。但像ChatGPT等大語言模型是否可以“忘記”用于訓練自己的數據?對于OpenAI是否能夠在個人要求時從模型中完全刪除數據,業內人士認為,這類模型很難刪除個人信息的所有痕跡。此外,訓練此類模型花費高昂,AI公司也不太可能每次在個人要求刪除某些敏感數據后重新訓練整個模型。
利用ChatGPT從事違法經營活動
隨著ChatGPT的刷屏,國內也出現眾多與之相關的微信公眾號及小程序。由于ChatGPT官方并未在中國大陸開通服務,無法通過大陸手機號注冊并與之對話,這些小程序便開始宣稱能夠提供與ChatGPT對話的套餐服務,比如9.99元20次對話額度至999.99元無限次對話額度等。也就是說,這些小程序充當國內用戶與ChatGPT的中介。但即便是中介往往也是真假難辨,一些賬號雖然會宣稱調用ChatGPT的端口,但也不排除其實是使用了其他機器人模型,對話質量遠不及ChatGPT。
提供所謂ChatGDT對話服務的公眾號小程序
類似的,一些賣家也在電商平臺提供售賣ChatGPT賬號、代理注冊的服務,有媒體調查發現,一些賣家從海外網站批量購買可以修改密碼的現成賬號,成本在8元左右,而對外售價可以達到30元,如果是代理注冊,成本則可以低至1.2元。
且不說上述這些渠道存在泄露個人隱私的風險,私自搭建國際信道,公開提供跨境經營服務的情形,也觸犯了《網絡安全法》相關規定。目前這些帶有ChatGPT字眼的公眾號或小程序都大多已經被微信官方進行了封禁處理,相關平臺也在對這類賬號的買賣行為進行封殺。
被黑客利用從事網絡攻擊
正如前文所說,ChatGPT能夠幫助安全人員檢測易受攻擊的代碼,那對于黑客而言也能進行類似的操作。數字安全調查媒體Cybernews的研究人員發現,ChatGPT可以被黑客用于尋找網站的安全漏洞,在其幫助下,研究人員對一個普通網站進行了滲透測試,并在45分鐘內結合ChatGPT提供的建議和代碼更改示例完成了破解。
另外,ChatGPT能夠用來編程,相應地也能被用來編寫惡意代碼。比如通過 ChatGPT 編寫 VBA 代碼,只需簡單地將惡意 URL 插入到此代碼中,當用戶打開如Excel文件時便會自動開始下載惡意軟件負載。因此,ChatGPT能讓沒有太多技術能力的黑客在短短幾分鐘內炮制出武器化的含附件的電子郵件,對目標實施網絡攻擊。
去年12月,已有黑客在地下論壇分享利用ChatGPT編寫的Python 竊取器代碼,該竊取器能搜索常見文件類型(如 MS Office 文檔、PDF 和圖片文件),將它們復制到 Temp 文件夾內的一個隨機子文件夾,壓縮并將它們上傳到硬編碼的 FTP 服務器。
黑客在論壇展示了如何使用 ChatGPT 創建信息竊取程序
由于ChatGPT能夠學習人類語言,在編寫釣魚郵件等社工行為時能夠在語法和表達習慣上更具有迷惑性。研究人員發現,ChatGPT能使黑客能夠逼真地模擬各種社會環境,從而使任何針對性的攻擊都更加有效,即使是一些非母語國家的黑客,也能編寫出符合目標國家語法和邏輯、沒有任何拼寫或格式錯誤的高仿真釣魚郵件。
利用ChatGPT 生成的釣魚郵件
初步盤點完上述ChatGPT網絡安全方面的優勢與風險后,可以顯而易見,二者形成近乎完全相對的兩面性,即如果能夠被黑客查找漏洞、尋找攻擊面,那么相應的也能幫助安全人員查漏補缺、收窄被攻擊的缺口。但現階段ChatGPT的安全輔助作用仍然需要專業人員進行審查和批準,在流程上可能存在滯后性。而那些出于經濟動機的犯罪黑客,通常會直接利用人工智能發起攻擊,威脅性難以估量。
人工智能安全是否急需法規約束?
毫無疑問,以ChatGPT為代表的人工智能是近年來一項卓越技術的體現,但也正由于這項新技術的兩面性,網絡安全和 IT 專業人士對ChatGPT而言無疑有著復雜的感受。根據 BlackBerry 最近的一項研究,雖然80%的企業表示計劃到 2025 年投資人工智能驅動的網絡安全,但仍有75%的企業認為人工智能對安全構成嚴重威脅。
這是否意味著我們急需一批新的法規,來專門規范人工智能產業的發展?我國有專家學者提出,ChatGPT現在所獲得的轟動效應,以及多方資本試圖入局并不等于人工智能產業取得了突破性發展,ChatGPT目前能夠處理的工作任務具有鮮明的重復性、模板性特征,因此,監管機構沒有必要立即將ChatGPT技術監管作為現階段網絡空間治理的核心工作任務,否則,我國立法模式會陷入“出現一項新技術,制定一項新規定”的邏輯怪圈。就目前而言,我國已經出臺的《網絡安全法》、《網絡信息內容生態治理規定》、《互聯網信息服務算法推薦管理規定》等法律法規,針對人工智能技術和算法技術濫用規定了詳細的法定義務和監管體系,足以應對短期內ChatGPT可能導致的網絡安全風險。現階段,我國監管部門可以充分利用現有法律制度,加強對ChatGPT相關產業的監管;未來在經驗成熟時,可以考慮啟動人工智能技術應用領域的立法,以應對各種潛在的安全風險。
而在國外,歐盟計劃于2024年推出《人工智能法案》,提議成員國必須任命或建立至少一個監督機構,負責確保 "必要的程序得到遵循"。預計該法案將被廣泛應用于從自動駕駛汽車、聊天機器人到自動化工廠等各個領域。
其實,討論ChatGPT的安全性,以及人類的工作是否會被人工智能所取代,最終歸根結底可能就是圍繞一個命題:到底是人工智能來控制人類,還是人類來控制人工智能。如果人工智能得到良性發展,輔助人類提高工作效率、加速社會進步,相應的,我們的網絡也是安全的,而如果人類不能控制人工智能,讓它朝向朝向失序的方向發展,那必然是一個處處充滿攻擊及威脅的網絡環境,到那時,網絡安全恐將不再是“紅藍之間的小打小鬧”,而將是對整個人類社會秩序的顛覆。