機器能否擁有像人類一樣的意識?要回答這個問題,首先要探索人類意識是如何產生和存在的。在2017年10月 Science 神經科學特刊的一篇綜述中,研究者回顧了三個級別的人類意識:C0 無意識的“自動駕駛模式”,C1 獲取信息作出決策,C2 元認知。機器能否達到這三種意識水平?人類意識模式對構建人工智能有何啟發(fā)?請看這篇長文綜述。
主要內容:
摘要 關于機器是否擁有意識,這類具有爭議性的問題,必須基于對意識是如何在唯一的物理系統中產生進行認真思考 -- 毫無疑問,人類的大腦擁有意識。 因此, 我們建議將“意識”這個詞在大腦中合并成兩種不同類型的信息加工進行計算:為總體傳播選擇信息,從而使其靈活地用于計算和報告(C1,第一感覺上的意識),以及有關自我監(jiān)控的計算,會導致一種主觀上的確定感或錯誤(C2,第二感覺上的意識)。我們認為,盡管, 有關這方面的研究在最近曾取得了成功,但是, 目前的機器主要實施的計算,仍然反映的是人腦的無意識加工過程(C0)。為此, 我們主要回顧了心理學和神經科學中的無意識計算(C0)和有意識計算(C1和C2),并概述它們是如何激發(fā)新型的機器架構。 意識的三個維度:
我們可以想象,當你正在開車時,突然看到燃油指示燈亮起來了。那么, 這是一個什么樣的,復雜的神經元聚合,讓你意識到指示燈的閃動?而且, 又是什么讓這輛汽車,一個復雜的電子和工程產品,沒有意識到這一閃光的警示?這輛汽車會被賦予與我們相似的意識嗎?這些問題都能得到科學地解決嗎? 現代計算科學的創(chuàng)始人艾倫·圖靈(Alan Turing)和約翰·馮·諾依曼(John von Neumann)認為, 機器最終會模仿包括意識在內的大腦的所有能力。人工智能(AI)的最新進展已使這一目標得以實現。在神經生物學的啟發(fā)下,機器學習的改進導致人工神經網絡接近或偶爾超越了人類(1,2)。盡管,這些網絡并不能模仿人類大腦實際的生物物理特性,但是, 它們的設計受益于幾個神經生物學的見解,包括非線性輸入輸出函數,具有收斂投射功能的層面和可修改的突觸權重(modifiable synaptic weights)?,F在, 計算機硬件和訓練算法的進展使得這類網絡能夠對復雜的問題(如機器翻譯)進行操作,所獲得的成功率, 以前則被認為是一個真正的大腦的特權。那么,機器是否處在意識的邊緣呢? 我們認為, 答案是否定的:當前的深度學習網絡所實現的計算主要是與人腦中的無意識操作相對應。然而,就像人工神經網絡從神經生物學中獲得靈感一樣,人工意識可能會通過研究人類大腦產生意識的架構而獲得進展,然后,再將這些深刻理解轉化為計算機算法。我們的目的是, 通過回顧可能與機器相關的, 認知神經科學中意識的各個方面來促進這種進步。 一、意識的多重意義 意識這個詞,像許多近代科學以前的術語一樣,被廣泛賦予不同的意義。在醫(yī)學方面,它通常指一種非傳遞性的感覺,被用于評估警覺和清醒度的狀態(tài),(如“患者沒有意識了”),以充分闡明大腦的警覺機制是一個基本的科學目標,對于我們理解睡眠,麻醉,昏迷或植物人狀態(tài)等均有重要的影響。由于缺乏篇幅空間,我們在這里就不涉及到這一方面,它對計算的影響似乎也很小:顯然,一臺機器必須恰當地啟動才能正常地運行和計算。 我們認為,區(qū)分意識計算的其他兩個基本維度是非常有用的。為此,我們使用總體可用性(C1)和自我監(jiān)控(C2)這樣兩個術語來標記它們。
C1: 總體可用性 Global availability 這一術語主要是對應于意識的傳遞意義(如同“司機意識到閃光”)。它指的是,認知系統與特定的思想對象之間的關系,如“油箱指示燈”的心理表征。這一對象似乎被選中要做進一步處理,包括語言和非語言報告。有意識的信息就是在這一意義上成為有機體的總體可用性; 例如,我們可以回想它,并對它采取行動,還可以談論它。這一感覺與“記住這一信息”具有相同的意義。在一個既定的時間內,將有關思維的,大量的計算機指令變?yōu)橐庾R,只有具有總體可用性的信息才能構成了C1意識中的內容。 C2: 自我監(jiān)控 Self-monitoring 意識的另一個意義是具有反射性。它指的是,認知系統中的一種自我指涉關系(a self-referential relationship),這種關系能夠監(jiān)控自己的加工, 并獲得有關自身的信息。人類對自身已經了解了很多,包括諸如身體各器官的布局和位置,他們是否能知道或感知某事,抑或他們是否只是犯了一個錯誤等各種各樣的信息。這種意識通常是與所說的內省introspection相對應,也就是心理學家所說的“元認知”(“meta-cognition”)–即對自己的知識和才能進行內在表征的能力。 我們提出,C1和C2構成了有意識計算的正交維度(orthogonal dimensions)。這并不是說,C1和C2均不涉及重疊的體能基質,事實上,正如我們以下所述,人類的大腦都依賴于前額葉皮質。但是,我們還認為,在經驗和概念上,這兩者可能也會分開,因為,在沒有C2的情況下,還可以有C1,例如,在可報告加工時并沒有伴隨著準確的元認知;而沒有C1的C2, 則是指,在自我監(jiān)控操作展開時,卻沒有被有意識地報告。 因此,我們在考慮它們的協同作用之前,就分別考慮這些計算是有益的。此外,還有許多計算既不涉及C1,也不涉及C2,因此,被恰當地稱之為“無意識”(簡稱為C0)。這是圖靈的獨到見解,即使是復雜的信息加工也可以通過無頭腦的自動機來實現。認知神經科學已經證實,那些復雜計算,諸如人臉識別或語音識別,棋類游戲評估,語句解析和意義提取等,都可以在人類大腦中無意識地發(fā)生,而上述條件既不具有總體可用性,也不具備自我監(jiān)控(表1)。 在某種程度上,大腦似乎是將專門的處理器或“模塊”并列起來操作,并且我們還認為,這與當前的前饋控制深度學習網絡(feedforward deep-learningnetworks)的操作密切對應。接下來,讓我們回顧一下人類和動物的大腦是如何加工C0,C1和C2水平計算的實驗證據,然后再回到機器上,看它們是如何從對人類大腦結構的理解而獲益。 無意識加工(C0): 大部分智能都是無意識的 “我們不能察覺我們意識不到的事物”(3),這一真理具有深遠的影響。因為,我們對自身無意識的過程還是不了解的,所以,我們傾向于低估自己在心靈生活中的角色。盡管,認知神經科學家們開發(fā)了各種呈現圖像或聲音的方法和手段,但是,依然沒有給我們帶來任何有意識的體驗(圖1),后來,這些科學家又使用行為和大腦成像來探測其加工深度。 圖1探索無意識加工(C0)的實例 (上圖)潛意識視圖-不變的人臉識別(77)。在每一次試驗中,都短暫地呈現一個被面罩遮住的主要面孔(50毫秒),隨后是可見的目標面孔(500毫秒)。盡管,主觀感知在不同條件下是相同的,但是,無論何時,這兩張面孔都代表同一個人,在相同或不同的視圖中,加工都得到促進。在行為層面,它體現出,這種視圖不變的無意識啟動在識別目標人臉時的反應時有所減少。而在神經層面,它則體現出,在人的下顳葉皮質中的紡錘臉面部區(qū)域,對目標人臉的皮質反應有所減少(重復抑制)。 (下圖)有關雙眼抑制期間,證據的潛意識積累(16)。在一只眼睛中所呈現的突出移動點可以防止,在相反的眼睛中灰白的移動點變成有意識的感知。盡管,它們是看不見的,但當它們向同一方向移動時,灰色圓點就會促進性能,作為隨后的圓點顯示,這是一種與其連貫性的移動量相稱的效果。這種促進只影響一個一級任務(判斷運動的方向),而不是二級元認知判斷(評估第一個反應的信心)。一個證據積累的計算模型提出要將潛意識運動信息添加到有意識的信息中,從而導致決策的偏置和縮短。 總之, 啟動現象說明了無意識加工的顯著深度。一個高度可見的目標刺激, 諸如書面語“4”, 可先與一個相關的主要刺激,阿拉伯數字“4”之前, 進行更有效的加工,哪怕受試者沒有注意到一個主要刺激的存在,也不能可靠地報告其身份。潛意識的數字,話語,人臉或物體可被不變地識別,并影響運動,語義和決策水平的加工(表1)。神經成像方法顯示,絕大多數的大腦區(qū)域可以被無意識地激活。 人類大腦中無意識的 視圖不變性和意義提取 Unconscious view-invariance and meaning extraction in the human brain 最近,人工智能提出許多難度很大的感知計算(perceptual computations),如不變的人臉識別或說話者不變的語音識別,以對應于人腦中的非意識計算(nonconscious computations)(4-6)。例如,在對同一個人完全不同的觀點進行潛意識描述之前,加工該人的臉就比較容易,以表明無意識的不變識別(圖1)。潛意識啟動(Subliminal priming)概括了這種跨視聽形式(7,8),從而揭示了人工智能軟件(例如,語義向量提取或語音文本)仍然具有挑戰(zhàn)性的交叉知覺模式, 同時,也涉及到無意識機制。甚至,感覺輸入的語義意義也可以在沒有人腦意識的情況下進行加工。與相關詞語(例如, 動物-狗)相比較,語義違規(guī)(semantic violations)(例如,家具-狗)在顳葉語言網絡中的刺激開始發(fā)生的400毫秒后,即產生大腦反應,即使,兩個單詞中的一個不能被有意識地檢測到(9, 10)。 無意識的控制和決策 Unconscious control and decision-making 潛意識過程可以達到更深的皮質層次。例如,閾下啟動(subliminal primes)可以影響任務選擇(11)或運動反應抑制中(12)所涉及的認知控制前額機制。決策的神經機制則包括累積感覺證據,以影響各種選擇的概率,直到達到閾值。這種概率性知識的積累, 即使在潛意識刺激下也會持續(xù)發(fā)生(13-16)。貝葉斯推理和證據累積,是人工智能(2)的基礎計算,也是人類基本的無意識機制。 無意識學習 Unconscious learning 強化學習算法(Reinforcement learning algorithms)主要是基于以往的獎勵歷史, 捕獲人類和動物是如何塑造其未來行為,尤其是在玩Go游戲(1)等幾個應用程序中已獲得了超人類的人工智能性能。值得注意的是,對于人類而言,即使有關線索,獎勵或動機信號低于意識閾值(17,18),這種學習似乎也會繼續(xù)進行。 復雜的無意識計算和推斷,通常是在各種大腦區(qū)域內并行發(fā)生。現在, 許多這樣的C0計算已經被人工智能捕獲,特別是通過使用前饋卷積神經網絡(CNN)。接下來,我們考慮的是,有關有意識加工所需要的附加計算。 C1: 總體可用性的相關信息 對集成和協調的需求 The need for integration and coordination 將大腦組織成專業(yè)的計算子系統是卓有成效的,但是, 這種架構也提出了一個具體的計算問題:即整個有機體不能一直堅守多元化的概率解釋; 它必須有所行動,從而切斷了多重可能性,并決定采取單一的行動方式。要將所有可獲得的證據都集成到一個單一的決策中是一種計算要求,我們認為,如此必須面對任何動物或自主的人工智能系統,以符合我們給意識所下的第一個功能定義:總體可用性(C1)。 例如,大象在口渴的時候,總要設法確定離其最近一個水源的位置,并從5到50公里(19)這樣的距離直接移動。這樣的決策需要一個復雜的架構(i),以更有效地匯集所有可用的信息資源,包括多種感覺器官和記憶線索; (ii)并考慮到這些可用的選項,然后基于這個大型信息庫, 最后做出最佳的選擇; (iii)同時, 隨著時間的推移; (iv)來協調所有內部和外部流程,以實現其目標。 原始生物(primitive organisms),諸如細菌,可能只是通過不協調的感覺運動系統中的,無意識的競爭來實現這種決策。然而,這種解決方案一旦跨越暫時的延遲,并抑制短期傾向,支持長期的制勝策略,就會失敗。因此,那種連貫一致的,經過深思熟慮的計劃就需要一種特定的C1架構。 進入內部總體工作空間的意識 Consciousness as access to an internal global workspace 我們假設,第一感覺意義中的意識(C1)可演變成為一種解決信息共享問題的信息處理架構(20-23)。在這一觀點中,C1的架構逐步打破了無意識計算的模塊化和并行性。在專業(yè)模塊的深層次上,一個容量有限的“總體神經元工作空間”演變成為選擇一段信息,然后,隨著時間推移,在跨模塊間實行分享。我們將此稱之為“有意識”,在一個給定的時間內,無論如何,它都能贏得進入這一精神競技場的競爭,并被選擇為總體共享和決策??梢姡庾R主要表現為,一種念頭或一系列念頭對心理過程的短暫支配,以便引導各種各樣的行為。這些行為不僅包括身體動作,還包括心理活動,例如,提交信息給情景記憶(episodic memory),或按照指定路線將其發(fā)送給其它處理器。 意識與注意力之間的關系 Relation between consciousness and attention 威廉·詹姆斯(William James)曾將注意力形容為“一種以清晰而生動的形式從心靈上占有似乎同時可能存在的幾個對象或一連串的思想或思路”(24)。這一定義已很接近于我們所說的C1含義:是對進入總體工作空間的單一信息的選擇。然而,在最后的步驟,也就是有意識的進入和前注意選擇階段之間有一個明確的區(qū)別,即在這個階段可以無意識地進行操作。 許多實驗已經確認,專用的注意力定向機制的存在,并表明,像其他任何處理器一樣,它們可以無意識地操作:(i)從自上而下的方向,注意力可以面向對象,增強對其的加工,但卻不能使它進入意識(25); (ii) 從自下而上的方向,即使這種刺激最終保持無意識,注意力也能被閃光所吸引(26)。所以,我們所稱之的注意力,是一個被無意識操作的分級篩選系統。 在能力有限的系統中 全有或全無選擇的證據 Evidence for all-or-none selection in a capacity-limited system 靈長類動物的大腦都包含一個有意識的瓶頸,只能在一次有意識地進入一個單一的項目(表1)。例如,相互競爭的圖片或模棱兩可的話語被以全有或全無的方式感知著; 在任何給定的時間內,我們在主觀上,只能從許多可能的解釋中感知到一個單一的解釋, [即使其它的解釋,仍在被無意識地加工(31,32)]。 集成和發(fā)送的證據 Evidence for integration and broadcasting 人類的大腦成像和猴子的神經元記錄表明,意識的瓶頸是由分布在大腦皮層的神經元網絡所造成的,但是, 更著重強調高級的聯想區(qū)域。表1中所列出的是一些已通過使用各種腦部成像技術,在有意識感知期間已經證實的全有或全無的網絡“觸燃點”。單細胞記錄還表明,每一個特定的意識知覺,如一個人的臉,都是由一組神經元以全有或全無的形式從高水平的顳葉和前額皮質所發(fā)出,而其它神經元則保持沉默(圖2)(31,32,37,38)。 圖2總體可用性:第一感覺意義上的意識(C1)。 有意識的主觀感知是被編碼在相互連接的高水平大腦皮質區(qū)域(包括外側前額葉皮質,顳葉前皮層和海馬體),并為分布在該區(qū)域的特定神經刺激群所突然激活。 (上圖)在雙眼閃光抑制過程中,一張圖片對一只眼睛的閃動會抑制第二張圖片對另一只眼睛所呈現的,有意識的感知。因此,相同的物理刺激會導致不同的主觀感受。這個例子說明,一個對人臉敏感的前額神經元,對跳棋則沒有反應,這種激活的噴出與突然爆發(fā)的主觀面孔感知密切相關(31)。 (下圖)在遮蔽過程中,一個閃現的圖像,如果時間很短,再戴上一個長“面具”,則可以在主觀上保持隱形。如圖所示,內嗅皮層中的神經元,有選擇地向“世界貿易中心”這一概念實施激活。紅色的掃描光柵(Rasters)表示,受試者報告,對試驗圖片正在識別(藍色掃描光柵則表示,對圖片沒有識別)。在遮蔽下,圖片只能被呈現33毫秒,此時,已很少或基本沒有神經活動; 但是,一旦呈現時間比感知閾值(66毫秒或更多)更長,神經元就會在被識別的嘗試中大幅激活??偟膩碚f,即使針對相同的目標輸入(相同的持續(xù)時間),峰值活動對于那些識別嘗試也會越來越高,越來越穩(wěn)定(38)。 穩(wěn)定性是意識的特征 Stability as a feature of consciousness 通過直接對比,看見的和看不見的圖片或文字, 我們得以證實,這種觸發(fā)只發(fā)生在有意識的知覺上。正如前面所解釋的那樣,無意識刺激可能會進入深層的皮層網絡,并影響到更高層次的加工甚至是中樞執(zhí)行系統,但是, 這些效應往往是較小的,且易變的和短暫存在, [盡管, 無意識信息的衰減速度比最初的預期要慢許多(39,40]。相比之下,穩(wěn)定的,可再生的高質量信息在更高級的大腦皮質區(qū), 通過一個分布式活動模式顯示出有意識的加工特征(表1)。對于神經系統來說,這種短暫的“元穩(wěn)定性”(“meta-stability”)似乎需要整合來自各模塊的信息,然后再將其發(fā)送出來,從而實現靈活的跨模塊路徑。 人類和非人類動物中的C1意識 C1 consciousness in human and nonhuman animals C1意識是存在于人類嬰兒(41)和動物中的一種基本屬性。非人靈長類動物也曾表現出相似的視錯覺(31,32),包括注意力眨眼(42)以及如同人類被試者的中樞容量極限(43)。對于人類和非人類靈長類動物而言,前額葉皮質(prefrontal cortex)似乎都做為一種中樞信息共享裝置和串行瓶頸[43]。可見,前額葉皮質在人類譜系中的顯著擴張可能會導致更大的多模式收斂和集成能力(44-46)。此外,人類的下前額葉皮質還擁有額外的電路,用于口頭表示和向其他人報告信息。 通過語言來報告信息的能力被普遍認為是,意識感知最明顯的標志之一,因為,一旦信息達到了人類的這種代表性水平,就必然可以在各心理模塊間共享,因此,C1感覺是有意識的。雖然, 語言不需要有意識的感知和加工,但是, 人類語言電路的出現可能會導致C1水平信息共享的速度,便捷性和靈活性的顯著提高。 C2:自我監(jiān)控 鑒于C1意識反映了其具有訪問外部信息的能力,而第二感覺意義上的意識(C2)則以具有條件反射性地自我表現能力為特征(47-50)。有關認知神經科學和心理學方面的大量研究已經在“元認知”(meta cognition)的術語下提出了自我監(jiān)控的概念,這一概念被粗略地定義為: 對認知的認知或對認識的認識(cognition about cognition or knowing about knowing)。下面,讓我們回顧一下, 靈長類動物大腦自身的監(jiān)控機制,并側重它們構建自我反射機器的啟示。 信心的概率感 A probabilistic sense of confidence 每當做決定的時候, 人類對自己的選擇或多或少都感到一定的自信。信心可以被定義為,是對一個決定或計算是否正確的概率感(51)。人的大腦幾乎在任何時候都能感知或做出決定,它還能評估可信度。另外,學習也伴隨著一種可量化的信心。人類還會評估他們對自己所學知識的信任程度,并用其來權衡以往的知識與現在的證據(52)。信心可以通過非語言交際的形式進行評估,即通過回顧來測量人類是否堅持自己的最初選擇,抑或預期地讓自己決定從一項任務中退出,以至連嘗試都未曾嘗試。這兩種測量都曾被用于非人類動物,以表明它們也具有元認知能力(53)。相比之下,現有的大多數神經網絡都不具有這一能力:雖然, 它們也可以學習,但它們通常缺乏對所學知識的信度和范圍的元常識(meta-knowledge)。 一個明顯的例外是依賴貝葉斯機制的生物約束模型(biologically constrained models),用來模擬神經電路中多個概率線索的集成(54)。這些模型在描述神經群體如何自動計算一個指定過程執(zhí)行的成功概率方面已經取得豐碩的成果。盡管,這些實施仍然很少見,而且也沒有像傳統的人工智能那樣解決相同范圍的計算問題,但是,它們畢竟為將不確定的監(jiān)控結合到深度學習網絡中提供了一個有希望的檢驗場所。 對前額皮質的明確信任 Explicit confidence in prefrontal cortex 根據貝葉斯計算,每個局部皮質電路可以表示和組合概率分布,以評估處理的不確定性(54)。然而,為了明確地提取和操縱信任信號,可能需要額外的神經電路。人類的核磁共振成像(MRI)研究和靈長類動物,甚至包括大鼠身上的生理記錄都將這種信任處理與前額皮質(prefrontal cortex)特別地連接在一起(55-57)。前額皮質的失活可以誘發(fā)二級(元認知)判斷的特定缺陷,同時保留一級任務的表現(56,58)。因此,前額皮質的電路可能已逐步進化到可監(jiān)控其他大腦處理進程的表現。
誤差檢測:顯示一個人自身的錯誤 Error detection: Reflecting on one’s own mistakes 誤差檢測提供了一個特別明顯的,有關自我監(jiān)控的例子; 在收到回應之后,我們有時會意識到,我們犯了錯誤,因此,改變了主意。誤差檢測是通過腦電圖(EEG)活動的兩個組成部分顯示出來:誤差的負相關性(ERN)和誤差正性(Pe),它們在收到任何反饋之前,即一個錯誤的反應之后,就出現在皮層和前額皮質內側。 人的大腦怎么會犯錯誤呢,又是怎樣察覺的呢?一種可能性是,在做出決定之后,感覺證據的積累仍在繼續(xù)進行,而當進一步的證據指向相反的方向時,錯誤就被推斷出來(59)。第二種可能性則是,二個并聯電路,即一個低級的感覺電路和一個高級的意圖電路,與誤差檢測的顯著速度更加相容,無論其結論是多么不同,均對相同的感覺數據發(fā)生作用(60,61)。 元記憶 Meta-memory 人類不只是了解世界上的各種事情,他們實際上也了解,自己可了解的事情或自己不了解的事情。一個熟悉的例子是“在舌尖上”這個詞?!霸洃洝?Meta-memory)這一術語的創(chuàng)造,就是為了說明人類對自己的記憶有著認識,信任和質疑的感覺。元記憶也被認為是,涉及到二階系統,可通過監(jiān)控內部信號(例如,記憶痕跡的強度和質量)來調節(jié)行為。元記憶與前額結構有關,其藥理作用失活會導致元認知障礙,同時失去了記憶表現本身(56)。元記憶對人類學習和教育至關重要,它允許學習者開發(fā)學習策略,諸如增加學習量或調節(jié)分配給記憶編碼和訓練的時間(49)。 現實監(jiān)控 Reality monitoring 除了監(jiān)控感覺和記憶再現的質量之外,人類大腦還必須能區(qū)分自我生成和外部驅動的表征。事實上,我們可以感知事物,但是,我們也可以通過想象力或記憶聯想起它們。而精神分裂癥的幻覺則與不能正確區(qū)分感知活動是自己產生還是由外部世界生成有關(62)。所謂神經成像(Neuroimaging) 研究已將這種現實監(jiān)控與前額皮質聯系起來(63)。在非人類動物中,前額皮質中的神經元可區(qū)分正常的視覺感知和記憶中相同視覺內容的活躍維持(64)。 嬰兒的C2意識的基礎 Foundations of C2 consciousness in infants 自我監(jiān)控是一種基本能力,它在嬰兒期就已經存在(圖3)。當1歲的嬰兒在一個感知決策任務中做出錯誤的選擇時,我們即會觀察到ERN, 即誤差監(jiān)控(65)。同樣,一歲半的嬰兒為了獲得一個隱藏的玩具,在指向兩個盒子中的一個后,當他們的初始選擇是正確的時候,他們要比做出錯誤的選擇等待更長的時間以獲得即將到來的獎勵(比如玩具),這表明,他們有可能已監(jiān)控到自己的決定是正確的(57,65)。此外,如果有機會(以非語言的形式)詢問父母的幫助,他們會選擇不參加這一選項,特別是在他們有可能出錯的嘗試中,以展現對他們自身的不確定性的預期估計(66)。 嬰兒們還可以把自己的不確定性傳達給其他人,這進一步表明,他們能有意識地體驗元認知信息(meta-cognitive information)。由此,可以看出,嬰兒已經具備監(jiān)控自己心理狀態(tài)的能力。面對一個一切仍有待學習和了解的世界,C2機制允許他們積極地定向他們所知和所不知的領域–即一個我們稱之為“好奇”的機制。 圖3自我監(jiān)控:第二感覺(C2)上的意識。 自我監(jiān)控(Self-monitoring)(也稱為“元認知”),是反映一個人自身心理狀態(tài)的一種能力,在嬰兒期就可獲得。 (上圖)一歲半的嬰兒在決定指出某個玩具的隱藏位置之后,顯示出有關其具有自我監(jiān)控決定的兩種類型的證據。(i) 當他們認為最初的選擇是正確的時候,他們在已選擇的盒子里搜尋隱藏對象的時間,要比在不正確的時候持續(xù)更長。(ii)當他們有機會尋求幫助時,他們會有選擇地使用這一選項以減少發(fā)生錯誤的概率。 (下圖)向一歲的嬰兒展現一種無意義的模式或一張可見或不可見的臉(視其持續(xù)時間而定),然后再決定,向左或向右凝視,以期待這張臉再現。對于手動搜索來說,與錯誤的初始決定相比,在相同的凝視位置等待后決定的時間將更久。此外,當嬰兒做出不正確的選擇時,腦電圖(EEG)信號也揭示了,在額中樞電極上存在著與誤差相關的消極性。這些元認知標記是由可見的,而不是由不可見的刺激所引起,這在成人中也是如此(61)。 C1和C2之間的分離狀態(tài) 根據我們的分析, C1和C2在很大程度上是我們稱之為意識的正交和互補維度。在這種雙重分離的一方,自我監(jiān)控可為不可報告的刺激而存在(沒有C1的C2)。自動打字為此提供了一個很好的實例:人們在打錯之后,會自動慢下來,即使沒有有意識地關注這一錯誤(67)。同樣,在神經層面,ERN現象可以在主觀尚未檢測到錯誤時就發(fā)生了(68)。 在這種分離的另一方,那種有意識地可報告的內容,有時,并不帶有足夠的信任感(如,沒有C2 的C1)。例如,當我們檢索一個記憶時,它會突然跳入到意識中(C1),但時常對這種信任(C2)并任何做任何準確的評估,從而導致錯誤的記憶。正如馬文·明斯基(Marvin Minsky)所指出的那樣,“我們所謂的意識(在C1感覺上)是部分大腦對正在做的一些事情的一個非常不完美的總結”。這一缺陷,在某種程度上,來自于這樣的事實,即總體工作空間在對一個單一的意識樣本進行概率計算時減少了復雜的并行感覺流(27-29)。因此,概率信息經常會在途中丟失,而被試對于他們的感知準確性,卻感到過于自信。 賦予機器以C1和C2意識 Endowing machines with C1 and C2 機器如何被賦予C1和C2意識以進行計算?讓我們再回到汽車燃油指示器的例子。在當前的機器中,“汽油不足燈光顯示”是一種典型的無意識模塊化信號實例(C0)。當燃油指示燈不斷閃爍時,機器中其它的處理器卻仍保持不知和不變; 燃料繼續(xù)注入汽化器中,汽車甚至徑直穿過那些加油站而不停(盡管,這些加油站都可能顯示在GPS地圖上)。 目前的汽車或手機僅僅是特定模塊的集合,這些模塊在很大程度上,彼此間是不共享信息的。賦予這臺機器以總體信息可用性(global information availability)(C1)將允許這些模塊共享信息,并協作解決即將發(fā)生的問題(很像,人類在意識到燈光閃動時所做或饑渴的大象所做)。 盡管,人工智能在解決具體問題方面已經取得了很大的成功,但在一個單一的系統中實施多個流程,并靈活地協調它們,仍然是一個難題。在20世紀60年代,被稱為“黑板系統”(“blackboard systems”)的計算架構是專門用于發(fā)布信息,并以一種靈活和可說明的方式提供給其他模塊使用,這與當前的總體工作空間就很相似(20)。 最近,一種被稱之為Pathnet的架構,即使用遺傳算法,并通過其許多專用神經網絡來學習,以得出哪條路徑最適合一個特定的任務(72)。這一架構展現出強大的,靈活的性能和跨任務模塊的泛化,這可能構成機器具有靈長類的靈活性意識的第一步。 為了更好地利用燃油指示器所提供的信息,讓汽車擁有可顯示自己的油量和極限的數據庫將是非常有益的。這樣的自我監(jiān)控(C2)將包括自身的,互相協調的圖像--如當前位置和燃料消耗。以及其內部數據庫(諸如“知道”它擁有一個可定位加油站的GPS地圖)。 當今,大多數機器學習系統都缺乏自我監(jiān)控; 他們的計算(C0)并不能代表其知識的范圍和限度,或者說,他人可能有與其不同的觀點。 但也有些例外:貝葉斯網絡(Bayesian networks)(54)或程序(73)是通過概率分布進行計算的,那么,怎么能追蹤它們的正確性。即使,主要計算由傳統的CNN來完成,對內省來說,也是不透明的,所以,我們可以對第二層級較高的神經網絡進行訓練,以預測第一個人的表現(47)。這種方法聲稱,在一個系統中重新描述自己會導致“內部模型的出現,而這些模型本質上是元認知的,并且使代理人有可能開發(fā)一種(有限的,內隱的和實際的)對自身的理解”(48)。 Pathnet(72)使用一個相關的架構來跟蹤在一個特定任務中的內部構形是最成功的,并利用這一知識來指導后續(xù)處理。機器人也被編程用來監(jiān)控其學習進度,并利用它確定有關問題的資源,以最大化地獲取信息,從而實現一種好奇心(74)。 較少受到關注的,C2的一個重要功能是現實監(jiān)控。人工智能的貝葉斯方法(2,73)已經認識到,學習生成模型(learning generative models)的效益,可以共同適用于實際感知(現在),預期計劃(未來)和回顧性分析(過去)。在人類中,感知和想象均涉及到相同的感官領域。 因此,我們需要一些機制來區(qū)分自我生成和外部觸發(fā)的活動。一種強大的訓練生成模型的方法稱之為對抗學習(adversarial learning)(75),這涉及到一個二級網絡與一個生成網絡的“競爭”,以便批評性地評估自生表征的真實性。當這種現實監(jiān)控(C2)與C1機制相結合時,由此, 產生的機器可能更接近模仿人類意識,從而在總體范圍內獲得知覺表征,并直接意識到,其內容是對當前世界現狀的真實反映。 結論 我們的立場是基于這樣一個簡單的假設:我們所說的“意識”來源于特定類型的信息加工計算,從生理上看,這些計算是由大腦的硬件所實現的。它與其他理論所不同的是,其計算是堅決的,執(zhí)意的; 我們推測,僅靠信息理論量(76)是不足以定義意識,除非,我們也考慮到,正在加工的信息的性質和深度。 我們還認為,一臺被賦予C1和C2意識的機器,其表現就如同具有意識; 例如,它會知道,它正在看什么,并表現出一種自信,再向他人報告,當其監(jiān)督機制崩潰時,它還可能體驗到幻覺,甚至會經歷與人類相同的那種錯覺(perceptual illusions)。盡管如此,給這種意識下一個純粹的功能性定義,可能,仍然會令某些讀者感到不滿意。我們是不是可以通過這類假設,一些高級認知功能是否必然要與意識發(fā)生聯系,從而使意識“過度理性化”?我們能否先不考慮那些經驗成分(例如,“什么是有意識的”)?還有,一些主觀體驗可否避開計算的定義? 雖然,這些哲學問題不在本文的討論范圍內,但是,我們在實證中會注意到,在人類中, C1和C2計算的損失是由于主觀經驗的喪失而造成的。例如,對于人類而言,對初級視覺皮層的損害可能會導致一種稱為“盲視”的神經性病癥,在這種情況下,患者會報告,在受影響的視野中失明。值得注意的是,這些患者可以在他們的盲區(qū)中定位視覺刺激,卻不報告它們(C1),也不能有效地評估其成功的可能性(C2) -- 他們認為,他們只是“猜測”。在這個例子中,主觀經驗似乎與擁有C1和C2有關。雖然,幾個世紀的哲學二元論(philosophical dualism)會導致我們把意識看作是不可還原的物理作用,但是,實驗證據與意識的可能性則是一致的,即意識只能通過特定的計算而產生。 參考文獻
(底部有彩蛋) |
|