AI失業潮已來,程序員職業是否真的會消失?
近日,隨著OpenAI發布突破性的多模態機器學習模型GPT-4o,關于人工智能引發全球性失業潮的報道再次占據各大媒體頭條。
國際貨幣基金組織董事總經理克里斯塔利娜·格奧爾基耶娃博士警告稱,隨著企業大量采用人工智能技術,全球勞動力市場將遭遇“海嘯”,人工智能可能會消滅全球近一半(40%)的工作崗位以及美國和英國等發達經濟體一半以上(60%)的工作崗位。
英特爾首席執行官帕特·基辛格上個月表示,人工智能有一天可能會催生單人獨角獸公司(估值超過10億美元的只有一名員工的企業)。如果你認為“單人獨角獸”特指腦力工作者中的“卷王“那就大錯特錯了,因為特斯拉、Figure/OpenAI以及大量中國企業的“具身智能”人形機器人市場已經爆發,未來護理、司機、工人、士兵等體力工作者同樣面臨失業風險。
目前,業界普遍認為醫生、律師、教師、程序員(包括網絡安全人才)等知識工作者是AI大潮最先面對失業風險的人群,但事實真的如此嗎?
以近年來全球科技行業裁員的重災區——程序員職業為例,AI確實帶來了巨大的編碼效率提升,但與此同時,AI也產生了兩個極為嚴重且難以解決的新難題,使其不但無法完全替代人類程序員,甚至會讓軟件開發/網絡安全行業陷入危險境地。這兩個問題分別是:
- AI屎山。AI編寫的代碼質量不佳且不安全,比人類編寫的代碼漏洞多。
- AI污染。AI編寫的代碼已經“決堤”并快速污染在線代碼庫和搜索引擎(搜索結果)。
AI屎山
根據Veracode最新發布的軟件安全報告,AI生成代碼的激增將導致安全債務問題惡化并對軟件供應鏈構成重大風險。報告指出:“盡管人工智能為軟件開發帶來了速度和效率,但在代碼安全方面表現不佳,GitHub Copilot生成的代碼中有36%存在安全漏洞。”
斯坦福大學的一項研究(論文鏈接在文末)發現,使用人工智能助手編寫的代碼比“手工代碼”的安全性差很多,而且人工智能工具還會導致用戶對其代碼中的安全性過于自信。
例如,在SQL注入漏洞測試中,使用AI助手的測試參與者編寫的代碼安全性明顯較差。36%的使用人工智能助手的測試參與者編寫了容易受到SQL注入攻擊的代碼,而不使用AI助手的對照組的比例僅為7%。
不可否認,類似Github Copilot這樣的人工智能代碼助手能大大提高開發人員的開發效率和生產力,并降低開發技術門檻。然而,缺乏經驗的開發人員可能會輕易相信人工智能助手的輸出內容,從而引入安全漏洞風險。
Veracode的報告指出,人工智能生成代碼更傾向于滿足“正確性”而不是安全性,并且在某些情況下,可能會創建無意中使用戶感到困惑的代碼。
AI污染
如果說AI屎山影響的只是具體項目,那么“AI污染”對整個軟件開發生態來說則是災難性的。所謂AI污染,是指AI生成的劣質代碼污染代碼庫和搜索引擎結果。例如,近日大量開發人員投訴稱谷歌搜索引擎的搜索結果被來自Pulumi AI(一種在線人工智能編碼問答工具)的AI生成的錯誤代碼“霸榜”。
開發人員Arian van Putten在上周末的社交媒體帖子中寫道:“事情發生了。排名第一的谷歌搜索結果居然是Pulumi大語言模型編寫的(頁面上也包含免責聲明),并且憑空捏造了一個不存在的AWS功能。這簡直是災難的開始。”
該問題最早由開發者Pete Nyk?nen發現,他在2024年3月21日在GitHub Issues報告中指出Pulumi AI代碼倉庫在某些代碼關鍵詞的搜索結果中排名正快速提升:“今天我搜索了各種與基礎設施代碼相關的關鍵詞,并注意到一個令人擔憂的趨勢,即Pulumi AI的答案被谷歌抓取并獲得較高排名,這種情況在多次搜索中復現,并且隨著時間的推移可能會變得更加糟糕。”
其實,AI污染的不僅僅是代碼,還包括文字、圖片、視頻等所有AI可以批量生產/偽造的內容。密碼學家布魯斯施奈爾近日撰文指出,隨著生成式人工智能技術的野蠻生長和泛濫,互聯網的原生優質內容生態正在被大規模生產的人工智能合成內容充斥和占領,如果互聯網巨頭不及時采取行動,我們可能會失去我們所知的互聯網,并陷入一個由AI生成的垃圾內容主導的黑暗時代。
結論
“AI屎山”和“AI污染”這兩大難題意味著,AI消滅一部分初級和重復性開發崗位的同時,將創造大量新的崗位,例如AI開發、AI應用、AI安全、AI監管和治理。此外,軟件架構師、系統工程師、DevOps工程師、物聯網解決方案架構師、全棧開發人員等高級IT人才的能力和薪酬有望因AI的加持而持續上漲。
總之,對于開發人員來說,這是最壞的時代,也可能是最好的時代。