機(jī)器人會取代人類嗎?
人工智能現(xiàn)在得到越來越廣泛的應(yīng)用,它們可以診斷疾病、駕駛汽車、理解語言,甚至在國際象棋比賽中擊敗人類頂尖高手。那么現(xiàn)在問題來了,人工智能經(jīng)過不斷改進(jìn),最終會達(dá)到甚至超過人類智能水平嗎?達(dá)到甚至超過人類智能的機(jī)器人會取代人類嗎?
實際上,這個問題一直讓一代又一代的人們揮之不去而且深感不安。就像在斯坦利·庫布里克(Stanley Kubrick)1968年的電影《2001太空漫游》(2001:A Space Odyssey)當(dāng)中描述的,一臺令人恐懼的智能計算機(jī)“哈爾”,通過自己平靜的嗓音展現(xiàn)出了一些人類特有的能力:說話、推理、識別人臉、審美、表達(dá)情緒。在哈爾得知人類宇航員決定將其關(guān)閉時,哈爾將他們逐一殺害。這樣可怕的情景會在未來出現(xiàn)嗎?
英國Mimecast公司首席數(shù)據(jù)科學(xué)家赫伯特·羅埃布萊特(Herbert L. Roitblat)在其《算法還不夠:創(chuàng)建通用人工智能》一書中提出看法說:機(jī)器智能的改進(jìn)不會導(dǎo)致機(jī)器主導(dǎo)的革命。它們可能會改變?nèi)藗儚氖碌墓ぷ黝愋停灰馕吨祟惿娴慕K結(jié)。機(jī)器人不會取代人類。
他為什么得出這樣的結(jié)論?讓我們先把目光投回到2000多年前的西西里島的錫拉庫扎。在那里,阿基米德正光著屁股泡在澡堂子里,苦苦思索國王交給他的一道難題。
據(jù)說,錫拉庫扎國王希羅二世(公元前 270 至 前215 年)懷疑,他委托放置在一座寺廟雕像頭上的奉獻(xiàn)王冠不是由純金制成的。阿基米德的任務(wù)是確定希羅二世是否被騙了。
最開始阿基米德找不到辦法,因為不能將王冠敲碎了檢查。然后有一天他泡澡,當(dāng)他坐進(jìn)澡盆里時,看到水往外溢,突然想到可以用測定固體在水中排水量的辦法,來確定金冠的體積,通過相同質(zhì)量的純金的體積來確定王冠的真假。
然后,他就興奮地跳出澡盆,連衣服都顧不得穿上就跑了出去,大聲喊著“尤里卡!尤里卡!(我找到了!我找到了!)”
羅埃布萊特將阿基米德的這個故事歸類為洞察力問題,跟人工智能解決問題的方法完全不同。羅埃布萊特說,我們?nèi)祟愂怯袆?chuàng)造力的,而且具有非理性的和不一致的特點,這些特質(zhì)(無論是好是壞)都是機(jī)器智能所不具備的。
一般來說,智力測試和計算機(jī)智能的重點一直放在結(jié)構(gòu)良好和形式化的問題上。也就是說,問題具有明確的目標(biāo)和一定數(shù)量的可能解決方案。洞察力問題通常無法通過像算法這樣的分步程序來解決。相反,洞察力問題的特征是求解者解決問題的方法的一種重構(gòu)。在問題基本上得到解決之前,通常很難確定是否取得了任何進(jìn)展,然后可能就突然找到了解決方案。
關(guān)于人類如何解決洞察力問題,我們知之甚少。在實驗室中深入研究這些問題通常具有挑戰(zhàn)性,因為很難要求人們描述他們解決問題所經(jīng)歷的步驟。我們都知道,人們并不總是按照邏輯思維所建議的系統(tǒng)方式行事。這些偏差不是人類思維中的小故障或錯誤,而是實現(xiàn)人類智能的基本特征。
除了洞察力問題,人類智能還有非理性的特征,這種說不上是優(yōu)點的特點,也讓機(jī)器智能無法超越,是不是有點可笑?
人類似乎通常不會過多關(guān)注問題的形式部分,尤其是在做出有風(fēng)險的選擇時。心理學(xué)家阿莫斯·特沃斯基 (Amos Tversky) 和丹尼爾·卡尼曼 (Daniel Kahneman) 發(fā)現(xiàn),人們在面對本質(zhì)上相同而描述上有差異的選擇時會做出不同的選擇。
他們進(jìn)行了一項實驗,參與者被要求想象一種新的疾病威脅著這個國家,可能有 600 人死于這種疾病。他們進(jìn)一步被告知,已經(jīng)提出了兩個計劃來治療這些人。參與者被分為兩個組,被要求在兩種治療方法之間進(jìn)行選擇。在第一組中,他們被告知:
72% 的參與者選擇了治療 A。人們認(rèn)為,確定能挽救 200 人比有可能失去全部 600 人更可取。
第二組參與者被給予相同選擇的不同版本:
在第二組中,22% 的參與者選擇了治療 A。
實際上,從死亡和存活人數(shù)來看,治療 A 對兩組來說都是相同的。但換了一種說法之后,人們的選擇就大相徑庭。
上述實驗說明人們的偏好差異是巨大的。第一個版本強(qiáng)調(diào)了替代方案的積極方面,第二個版本強(qiáng)調(diào)了消極方面。戲劇性地,人們更喜歡積極的版本。
值得注意的是,備選方案 B 在兩種情況下也是相同的。在備選方案 B 下生存的預(yù)期人數(shù)也是 200,但該備選方案包含不確定性。
實驗表明,當(dāng)某個結(jié)果以積極的語氣構(gòu)筑時,人們更喜歡確定的結(jié)果而不是不確定的結(jié)果,而當(dāng)以否定的語氣構(gòu)筑某個特定的結(jié)果時,人們更喜歡不確定的選擇。備選方案的框架或基調(diào)控制著參與者接受風(fēng)險的意愿。
上述實驗可以說這是人類愚蠢而不是人類智慧的一個例子。但另一方面,這個錯誤可能會告訴我們一些關(guān)于我們?nèi)绾巫龀鰶Q定的重要信息。正確和錯誤的決定都是由相同的大腦/思想/認(rèn)知過程產(chǎn)生的。
這些心理現(xiàn)象表明,我們的思維和智力過程具有復(fù)雜性,這并不總是對我們有利。我們妄下結(jié)論,我們更容易被我們更喜歡的或者以某種方式表述的論點說服。我們有時確實表現(xiàn)得像電腦,但更多時候,我們是馬虎和不一致的,與電腦完全不同。
丹尼爾·卡尼曼將人類思維描述為由兩個系統(tǒng)組成,一個是快速、相對不準(zhǔn)確和自動的;另一個是緩慢的、深思熟慮的,當(dāng)它最終得出結(jié)論時,也更準(zhǔn)確一些。
計算機(jī)智能專注的工作需要縝密思考的系統(tǒng),但快速思考的系統(tǒng)可能同樣重要或者更重要,而且對于在計算機(jī)中進(jìn)行仿真可能更具挑戰(zhàn)性。這種快速學(xué)習(xí)有時可能會導(dǎo)致不恰當(dāng)?shù)牟萋矢爬ǎ部赡苁且粋€重要的工具,讓人們可以在沒有大多數(shù)機(jī)器學(xué)習(xí)系統(tǒng)所需的大量示例的情況下學(xué)習(xí)很多東西。
羅埃布萊特總結(jié)說,如果機(jī)器學(xué)習(xí)系統(tǒng)所需的只是發(fā)揮其分析能力,那么機(jī)器很可能會超過人類解決類似問題的能力。另一方面,如果問題需要發(fā)散思維、常識知識或創(chuàng)造力,那么計算機(jī)將在一段時間內(nèi)繼續(xù)落后于人類。
被計算機(jī)“深藍(lán)”擊敗的國際象棋大師卡斯帕羅夫說,“深藍(lán)”的智能程度跟一臺可編程鬧鐘是一樣的。
當(dāng)然,他也補(bǔ)充說:“但并不是說輸給一臺價值1000萬美元的鬧鐘會讓我感到好過一些。”