最新報告證實稱:如果不謹慎應對,人工智能將成為現實版“黑鏡”
根據一份最新報告所言,目前我們正處于人工智能革命的懸崖邊緣。在這場革命當中,我們創造的技術可能同時呈現出善意、惡意與丑陋的面貌。
這份題為《人工智能的惡意應用:預測、預防與緩解》的報告長達100頁,于本周二正式發布,其中包含來自牛津大學、劍橋大學、OpenAI以及新美國安全中心等不同機構的26位頂尖人工智能專家的真知灼見。
此份報告首先承認了人工智能技術在某些領域取得的進展,但其同時表示“從歷史角度看,人們對于人工智能惡意使用方式的關注程度仍然較低。”更具體地講,大家可以參考目前大熱的反烏托邦驚悚劇集《黑鏡》。
劍橋大學生存風險研究中心執行董事Seán Ó hÉigeartaigh博士正是該份報告的作者之一,其在另一份聲明中表示,現在確實應該開始關注人工智能技術的惡意使用議題。
我們到底需要擔心什么?具體來說,目前與人工智能相關的部分問題確實呈現出惡化趨勢,例如機器人能夠理解我們的閱讀內容、個人感受以及我們的投票對象。Ó hÉigeartaigh博士提到,無人機的濫用狀況要遠比我們想象中的更為普遍,而人工智能支持下的聊天機器人也正通過在線方式大肆獲取用戶信息。他進一步補充稱,人工智能還將提升黑客攻擊活動當中對于人類聲音及視頻內容的偽造能力,從而生成更多更難以識別的虛假新聞。
牛津大學未來人類研究所研究員兼報告作者Miles Brundage解釋稱,“一般來講,人工智能系統不僅能夠達到人類的能力水平,甚至還將有所超越。雖然令人不安,但我們完全有必要充分考慮到人工智能在黑客攻擊、監視、說服以及物理目標識別領域的實際表現,同時意識到人工智能與人類相比存在非人性且更具擴展能力的特性。”
正如《黑鏡》劇集所描述,此份報告當中還提到了人臉識別技術,探討惡意人士如何利用這種技術來搜索并打擊目標人物——包括使用裝備有爆炸物的無人機或機器人進行暗殺。這聽起來似乎并不現實,但報告作者們認為其確實具備可行性。
援引最近剛剛離開OpenAI董事會的Elon Musk的觀點,研究人員們認為技術的創造者必須同時考慮到其可能帶來的所有惡意用途。因此,決策者需要充分了解正在開發的技術成果,并為其制定倫理框架。最重要的是,人工智能的發展必須始終保持充分的透明度,確保公眾能夠了解當前的實際技術動態。