AI與機器學習:大忽悠還是大希望?
達克效應(Dunning-Kruger effect)是一種顯著的偏見: 指的是能力欠缺的人在自己欠考慮的決定的基礎上得出錯誤結論,但是無法正確認識到自身的不足,辨別錯誤行為。這些能力欠缺者們沉浸在自我營造的虛幻的優勢之中,常常高估自己的能力水平,卻無法客觀評價他人的能力。
今天,我們看到了互聯網、區塊鏈和云計算等技術的興起,可謂是人類近期歷史上的三大科技熱潮。但是,在這些技術的應用中,我們不幸又看了這一效應的出現,大量自身實力并不足夠的廠商借了這些新興的詞語進行炒作與夸大。那么,人工智能(AI)與機器學習(ML)到底是忽悠還是希望呢?
這里有一點肯定的是,未來的AI將會進行更多彼此間的互動,比如許多網絡安全工作將由它們來進行管理,不過這不是在今天。技術有一種與預測相悖的地方,其實現要么比預期早得多,要么比預期晚得多。在AI技術的遠古早期,人們希望它能“很快解決問題”,但這個已經是50年前的事了。
事實上,我們還沒有解決圖靈測試問題:對于智人來說,還沒有另一種智能可以與之對話(至少自從其他的人屬物種如尼安德特人、能人、直立人等滅絕之后就沒有了)。如果有一天我們能創造出這些會思考的機器,恐怕我們會完全放棄“人工”這個詞。
最重要的語義區別在于,AI是對智能連續統一體的認知的追求,而不是“愚蠢”與“哈爾9000”(2001太空漫游中的殺人機器人)的二元對立。這里有一個簡單的類比:房子是用很多工具建造的,其中木工工具是一組工具。但這并不意味著擁有木工工具就可以被稱為房子。推而廣之,稱ML應用程序為AI是不正確的,但這卻發生在安全領域中。有人成功的偷換了概念,并植入了AI的標識,其實這是一個很大的錯誤。
今天,ML正在復興并且正在蓬勃發展,盡管它其實是一系列舊工具,在任何方面都不是非常神奇。 但鑒于計算和數據無處不在,我們看到了機器學習所謂的真正華麗,實用,智能應用的爆炸以及許多安全性,這當是個好消息。 但壞消息是我們仍然看到ML在商業計劃,技術文檔和營銷中被用作魔術語言。每當使用該術語時,人們應該能夠首先回答使用什么類型的機器學習(例如線性回歸,邏輯回歸,決策樹,SVM,樸素貝葉斯,K-NN,K-Means,隨機森林,降維等)。 以及它如何部署和訓練。 這不需要ML學位,但它應該以一般人可以理解的方式回答。
這這里也有充滿希望的地方,我們正在進入安全領域“人工輔助”ML應用的黃金時代。我們在會議上發表的演講和科幻小說的論文中依靠“超級炒作”去解決了我們所有的問題,而現在在我們得到真正有用的東西之前就已經到了結局階段。ML在自動化和使人類更有效的工作方面最有前途,比如惡意軟件預測、事件響應、法醫指導和類似的應用程序。盡管它們并不能神奇地解決所有問題,但它們讓我們的網絡安全問題變得容易處理得多,這會便于人類工作。
總有一天ML和AI會改變進攻和防守的安全格局,但不是今天。不過,這項研究并不需要產生那些令人興奮的結果,因為圍繞認證、周邊控制、風險分析、漏洞管理、內部威脅檢測、捕捉、補救等方面的工作越來越好。用馬克·吐溫的話來說就是:“持續的改進要比遲來的***要好。”