神經(jīng)學家的探尋:這就是機器如何擁有意識的方法
在亞力克斯·嘉蘭2015年的大作《機械姬》中,不同于導演設(shè)定的那樣,主人公并非迦勒這名負責評估機器意識的年輕程序員。相反,電影主人公是他的評估對象“伊娃(Ava)”,一個令人驚嘆的人形機器人,它既有孩子般的天真,也有高深莫測的頭腦。
如同大多數(shù)燒腦電影一樣,《機械姬》讓觀眾自行判斷,“伊娃”是否具有自我意識。在此過程中,它還巧妙地避免了一個棘手的問題,這一問題迄今為止仍挑戰(zhàn)著大多數(shù)以人工智能為主題的電影:什么是意識,機器能否擁有意識?
好萊塢導演們并非是對此問題困惑不解的唯一群體。隨著機器智能的飛速發(fā)展,它不僅能在魔獸爭霸(DOTA)和圍棋這樣的游戲中戰(zhàn)勝人類玩家,而且對戰(zhàn)過程中還不需要人類的專業(yè)知識,這一問題又一次成了科學的主流。
機器處于意識的邊緣嗎?
日前,法蘭西學院的認知科學家斯坦尼斯拉斯·迪昂、加州大學洛杉磯分校的Hakwan Lau和巴黎文理研究大學的希德·庫韋德爾共同在著名的《科學》雜志上發(fā)表了一篇評論文章,他們認為:雖然機器現(xiàn)在還沒有意識,但未來已有一條清晰的發(fā)展道路。
原因是什么?他們說,意識是“絕對的計算能力”,因為它是特定類型的信息處理產(chǎn)生的結(jié)果,這是由大腦的硬件實現(xiàn)的。
沒有魔法果汁,沒有多余的火花——事實上,一個用于體驗的部分(“什么是有意識?”)甚至沒有必要去實現(xiàn)意識。
如果意識僅僅是由我們的三磅重的大腦計算而產(chǎn)生,那么擁有同樣質(zhì)量的機器也只存在著將生物信息轉(zhuǎn)化為代碼的問題。
他們寫到,就像當前強大的機器學習技術(shù)從神經(jīng)生物學中大量借鑒一樣,我們或許可以通過研究我們大腦中的結(jié)構(gòu)實現(xiàn)人為意識,這些結(jié)構(gòu)能產(chǎn)生意識并且像計算機算法一樣實現(xiàn)這些意識。
從大腦到機器人
毫無疑問,人工智能領(lǐng)域已經(jīng)從我們對大腦意識的了解中受益匪淺,無論是在意識形式還是功能方面。
例如,“深度神經(jīng)網(wǎng)絡(luò)”是一種算法的架構(gòu),它可以讓阿爾法狗(AlphaGo)在與人類玩家比賽中獲得壓倒性勝利,有一小部分基礎(chǔ)是我們的大腦細胞自我組織的多層次的生物神經(jīng)網(wǎng)絡(luò)。
“強化學習”是一種“訓練”,它可以讓人工智能向數(shù)百萬個例子學習,它源于一種有著幾百年歷史的技術(shù),就像所有人熟悉的訓狗一樣:如果它發(fā)出了正確的反應(yīng)(或結(jié)果),則給予獎勵;否則,得要求它再試一次。
從這個意義上說,將人類意識的架構(gòu)轉(zhuǎn)換成機器似乎就能輕易實現(xiàn)人工意識。只是還有一個大問題。
斯圖爾特·拉塞爾博士于2015年《科學》雜志采訪中說到:“人工智能領(lǐng)域中尚未有人正開發(fā)有意識的機器,因為我們有心無力,對此實在是毫無頭緒”。他是《人工智能:現(xiàn)代方法》的作者。
多層次意識
在我們考慮編碼機器意識之前,最難的部分則是弄清楚意識究竟是什么。
對于迪昂和他的同事來說,意識是一個多層次的結(jié)構(gòu),有兩個“維度”:C1意識,大腦中的已有信息,以及C2意識,獲取和監(jiān)控自己信息的能力。這兩者對意識來說都是必不可少的,但二者不需同時存在。
假設(shè)你在開著一輛車,而低燃油警告燈亮了。在這里,我們注意到燃油箱燈就是C1意識,這是一種我們可以做出反應(yīng)的心理表征:我們注意到它,采取相應(yīng)行動(重新注滿油箱),并在之后回憶起來并談?wù)撍?“我在郊區(qū)的汽油用光了!”)迪昂在接受《科學》雜志采訪時解釋道,“我們想要從意識中區(qū)分的***個意義是全局可用性的概念”。
他補充道,當你意識到一個詞的時候,你的整個大腦都會意識到它,從某種意義上說,你可以在不同的模式中使用信息。
但是,C1意識不只是一個“心理素描本”。它代表了一種完整的體系結(jié)構(gòu),可以讓大腦從我們的感覺或?qū)ο嚓P(guān)事件的記憶中提取多種形式的信息。
潛意識的處理過程往往依賴于特定的“模塊”,這些“模塊”能夠勝任一組既定的任務(wù),而C1與之不同,它是一個全局性的工作空間,可以讓大腦整合信息,決定行動,并一直工作到***。
就像《饑餓游戲》(The Hunger Games)一樣,我們所說的“意識”可以有任意的表現(xiàn)形式,在某一時刻,“意識”在進入這個心理工作空間的比賽中國獲得勝利。不同的大腦計算回路會共享這些獲勝的意識,并在決策過程中一直處于中心位置,指導人類行為。
作者解釋說,由于這些特征,C1意識是高度穩(wěn)定的和全局性的意識,會觸發(fā)所有相關(guān)的大腦回路。
對于像智能汽車這樣的復雜機器來說,C1意識是解決諸如低燃料燈這樣迫在眉睫的問題的***步。在這個例子中,光本身是一種潛意識信號:當它閃爍時,機器上的所有其他進程仍然不知情,而汽車——即使配備了***進的視覺處理網(wǎng)絡(luò)——也毫不猶豫地通過了加油站。
有了C1意識之后,油箱就會向汽車內(nèi)置電腦發(fā)出警報(允許燈光進入汽車的“意識大腦”中),進而查看內(nèi)置的全球定位系統(tǒng)(GPS)來尋找下一個加油站。
迪昂說:“我們認為,在機器中,這將轉(zhuǎn)化為一個系統(tǒng),從封裝信息的任何處理模塊中提取信息,并將信息提供給其他任何處理模塊,這樣他們就可以使用這些信息。”“這是***種意識。”
元認知
在某種程度上,C1意識反映了大腦獲取外部信息的能力。C2意識則與大腦內(nèi)部信息相關(guān)。
文章作者定義了意識的第二個方面,即C2意識,能反映你是否知道或察覺到某件事,或者你是否剛犯錯誤的“元認知(meta-cognition)”。(“我想我可能是在***一個加油站加滿油了,但我忘記了保留收據(jù)以防萬一”)。這個維度反映了意識和自我意識之間的聯(lián)系。
C2是一種意識層次,它會讓你在做出選擇時感到信心不足或者信心滿滿。在計算術(shù)語中,它是一種算法,可以預測出一個決策(或計算)是正確的,盡管它經(jīng)常被當作一種“直覺”。
C2意識也會影響記憶和好奇心。這些自我監(jiān)控的算法讓我們知道了所謂的“元記憶”,有人對此有所了解,也有人從未聽過,它是負責感知自己舌尖上是否有東西。迪昂說,監(jiān)控我們所知道的(或不知道)東西對于兒童來說尤其重要。他解釋說:“孩子們絕對需要監(jiān)控他們所知道的東西,以便他們提出疑問、對事物變得好奇并學習更多知識。”
在意識的兩個方面共同作用下,我們能從中受益:C1意識讓相關(guān)信息進入我們的精神工作空間(同時丟棄其他“可能”的想法或解決方案),而C2意識則有助于意識思維是否帶來有益回應(yīng)的長期反射。
回到低燃料警示燈的例子中,C1意識讓汽車在***時間解決問題,這些算法使信息實現(xiàn)整體共享,讓汽車察覺到問題。
但為了解決這個問題,汽車需要一個有關(guān)自身的“認知能力目錄”,一種對隨時可用的資源的自我意識,例如,一份加油站的GPS地圖。
迪昂說:“擁有這種自我認知的汽車就是我們所說的擁有C2意識的汽車。”因為信號是全局性的,而且因為它的監(jiān)測方式類似于機器自我觀察,所以汽車會擔憂低燃油狀況,然后像人類一樣,降低燃料消耗并尋找加油站。
作者指出,“當今大多數(shù)機器學習系統(tǒng)都缺乏自我監(jiān)控”。
但他們的理論似乎找到了正確的方向。在這幾個例子中,無論是在算法的結(jié)構(gòu)中,還是作為一個單獨的網(wǎng)絡(luò),自我監(jiān)控系統(tǒng)得以實現(xiàn),人工智能已經(jīng)生成了“本質(zhì)上具有元認知的內(nèi)部模型,使得一個代理者能開發(fā)出一種對自身的理解,這種理解是有限的、隱蔽的,具有實用性。”
朝有意識的機器發(fā)展
一臺具有C1意識和C2意識的機器會表現(xiàn)得它好像擁有意識一樣嗎?這很有可能:智能汽車會“知道”它看到了什么,并對此非常確定,然后向其他部分報告,并找到解決問題的***方案。如果它的自我監(jiān)控機制崩潰了,它可能也會出現(xiàn)“幻覺”,甚至會出現(xiàn)與人類相似的視覺幻象。
迪昂說,多虧了C1意識,它將能夠使用它擁有的信息,還能靈活地使用這些信息,而有了C2意識,它清楚自己認知范圍的極限。“我認為(機器)應(yīng)該是有意識的,”而不僅僅只是人類的專利。
如果你感覺意識遠不止是整體的信息分享和自我監(jiān)控,不只有你這么感覺。
作者也承認:“對意識的純粹功能性定義可能會讓一些讀者不滿意”。
“但我們正試圖采取激進的立場,或許可以簡化問題。”迪昂總結(jié)到:“意識是一種功能的屬性,當我們不斷給機器增加功能時,在某種程度上,這些屬性將塑造我們所說的意識的特征。”