AI大牛們預警,但眼前問題或毀滅人類風險,哪個更值得擔心?
5月4日消息,建構當今人工智能基礎技術的“大牛們”紛紛發出警告,稱該技術存在潛在的危險。然而,他們目前尚未就人工智能的危險性或預防措施達成共識。
杰弗里·辛頓(Geoffrey Hinton)被稱為“人工智能教父”,他剛剛宣布從谷歌離職。他對自己的部分工作感到后悔,因為他擔心機器會變得比人類更聰明,進而危及人類生存。
蒙特利爾大學教授約書亞·本吉奧(Yoshua Bengio)是另一位人工智能領域的先驅。他與辛頓以及Meta首席人工智能科學家楊立坤(Yann LeCun)因在人工神經網絡領域取得突破而獲得了2018年圖靈獎,這些突破對當今人工智能應用程序(例如ChatGPT)的發展至關重要。周三,本吉奧表示,他“非常贊同”辛頓對聊天機器人(例如ChatGPT及其相關技術)的擔憂,但他擔心,僅僅簡單地說“我們注定要失敗”并不能解決問題。
本吉奧補充說:“主要的區別在于,他(辛頓)是個悲觀的人,而我則更樂觀。我確實認為,不論是短期的還是長期的,這些危險都非常嚴重,不僅需要少數的研究人員認真對待,而且需要政府和民眾認真對待。”
有很多跡象表明,各國政府正在傾聽各方聲音。白宮已經召集了谷歌、微軟和ChatGPT制造商OpenAI的首席執行官們,與美國副總統卡瑪拉·哈里斯(Kamala Harris)在周四舉行了一次“坦誠”的討論,重點是如何緩解其技術的短期和長期風險。歐洲立法者也在加快談判,以通過全面的人工智能監管規則。
而有些人則擔心,過度炒作尚不存在的超級智能機器,幻想著它能造成最可怕的危險,會分散人們對當前人工智能產品制定切實保障措施的注意力,而這些產品往往沒有得到監管。
在谷歌人工智能倫理團隊前負責人瑪格麗特·米切爾(Margaret Mitchell)看來,她對辛頓在谷歌掌權的十年里沒有直言不諱這一點感到不安,特別是在著名黑人科學家蒂姆尼特·格布魯(Timnit Gebru)2020年被解雇之后。格布魯曾在大型語言模型被廣泛商業化到ChatGPT和谷歌Bard等產品之前,研究過它們的危害。
在格布魯離職后,米切爾也被迫離開了谷歌。她說:“她(格布魯)幸運地跳出了歧視傳播的圈子,仇恨語言的傳播、對女性的貶低和未經雙方同意的色情內容,所有這些問題都在傷害著科技領域被邊緣化的人們。她跳過了所有這些事情,可以去擔心更遙遠的事情。”
2018年圖靈獎的三位獲獎者中,本吉奧是唯一一位沒有在大型科技公司工作的人。多年來,他一直對人工智能的近期風險表示擔憂,包括就業市場不穩定、自動化武器和有偏見數據集的危險等等。
但是最近,這些擔憂變得更加嚴重,促使本吉奧聯合特斯拉首席執行官埃隆·馬斯克(Elon Musk)、蘋果聯合創始人史蒂夫·沃茲尼亞克(Steve Wozniak)等其他計算機科學家和科技商業領袖,呼吁暫停開發比OpenAI最新模型GPT-4更強大的人工智能系統六個月。
本吉奧在周三表示,他相信最新的人工智能語言模型已經通過了“圖靈測試”。圖靈測試以英國密碼破譯者、人工智能先驅艾倫·圖靈(Alan Turing)于1950年提出的方法命名,旨在衡量人工智能何時變得與人類難以區分,至少在表面上如此。
本吉奧說:“這是一個里程碑,但如果我們不小心,可能會產生嚴重的后果。我主要擔心的是這些技術將如何被利用來發動網絡攻擊和傳播虛假信息等邪惡目的。你可以與這些系統對話,并認為是在與真人互動。它們很難分辨。”
研究人員對于目前的人工智能語言系統是否能夠比人類更聰明存在爭議,因為這些系統有很多局限性,比如傾向于捏造信息等。
艾丹·戈麥斯(Aidan Gomez)是2017年一篇開創性論文的合著者之一,該論文引入了一種所謂的轉換器技術,用于提高機器學習系統的性能,特別是在從文本段落中學習。當時只有20歲的戈麥斯是谷歌的實習生。他記得在凌晨3點左右,當他的團隊發送論文時,他正躺在公司加州總部的沙發上。
戈麥斯還記得一位同事告訴他:“這將產生巨大影響。” 自那以后,他們的研究幫助推動了新系統的出現,后者可以生成類似人類撰寫的文章。
六年后,戈麥斯如今已是其所創人工智能公司Cohere的首席執行官。他對這些系統的潛在應用充滿了熱情,但他也被技術威脅所困擾。他說,這些系統的真實能力與現實脫節,并且依賴于非凡的想象力和推理能力。
戈麥斯說:“認為這些模型會以某種方式獲得核武器的控制權,并發動某種滅絕級別事件的想法是杞人憂天,無益于那些試圖做好事、真正務實的政策努力。”