第一,沒有銀彈——破除對“終極算法”的迷信
深度學習落入了“尋找銀彈”(銀彈在歐洲民間傳說中是吸血鬼和狼人克星,引申義為致命武器、殺手鐧)的陷阱,用充滿“殘差項”和“損失函數”等術語的全新數學方法來分析世界,依然局限於“獎勵最大化”的角度,而不去思考,若想獲得對世界的“深度理解”,整個體係中還需要引入哪些東西。
神經科學告訴我們大腦是極為複雜的。真正擁有智慧和複雜性的係統,很有可能像大腦一樣充滿複雜性。任何一個提出將智慧凝練成為單一原則的理論,或是簡化成為單一“終極算法”的理論,都將誤入歧途。
第二,認知大量利用內部表征——人類的認知不是從出生後的學習才開始,而是依賴於進化留下的先天表征
從嚴格的技術意義上講,神經網絡也具有表征,比如表示輸入、輸出和隱藏單元的向量,但幾乎完全不具備更加豐富的內容。在經典人工智能中,知識完全是由這類表征的積累所組成的,而推理則是建立在此基礎之上的。如果事實本身模糊不清,得到正確的推理就會難於上青天。外顯表征的缺失,也在DeepMind的雅達利遊戲係統中造成了類似的問題。DeepMind的雅達利遊戲係統之所以在《打磚塊》這類遊戲的場景發生稍許變化時便會崩潰,原因就在於它實際上根本不表征擋板、球和牆壁等抽象概念。
沒有這樣的表征,就不可能有認知模型。沒有豐富的認知模型,就不可能有魯棒性。你所能擁有的隻是大量的數據,然後指望著新事物不會與之前的事物有太大的出入。當這個希望破滅時,整個體係便崩潰了。
在為複雜問題構建有效係統時,豐富的表征通常是必不可少的。DeepMind在開發以人類(或超人)水平下圍棋的AlphaGo係統時,就放棄了先前雅達利遊戲係統所采用的“僅從像素學習”的方法,以圍棋棋盤和圍棋規則的詳細表征為起步,一直用手工的機製來尋找走棋策略的樹形圖和各種對抗手段。
第三,抽象和概括在認知中發揮著至關重要的作用
我們的認知大部分是相當抽象的。例如,“X是Y的姐妹”可用來形容許多不同的人之間的關係:瑪利亞·奧巴馬是薩沙·奧巴馬的姐妹,安妮公主是查爾斯王子的姐妹,等等。我們不僅知道哪些具體的人是姐妹,還知道姐妹的一般意義,並能把這種知識用在個體身上。比如,我們知道,如果兩個人有相同的父母,他們就是兄弟姐妹的關係。如果我們知道勞拉·英格斯·懷德是查爾斯·英格斯和卡羅琳·英格斯的女兒,還發現瑪麗·英格斯也是他們的女兒,那麼我們就可以推斷,瑪麗和勞拉是姐妹,我們也可以推斷:瑪麗和勞拉很可能非常熟識,因為絕大多數人都和他們的兄弟姐妹一起生活過;兩人之間還可能有些相像,還有一些共同的基因特征;等等。
認知模型和常識的基礎表征都建立在這些抽象關係的豐富集合之上,以複雜的結構組合在一起。人類可以對任何東西進行抽象,時間(“晚上10:35”)、空間(“北極”)、特殊事件(“亞伯拉罕·林肯被暗殺”)、社會政治組織(“美國國務院”“暗網”)、特征(“美”“疲勞”)、關係(“姐妹”“棋局上擊敗”)、理論(“馬克思主義”)、理論構造(“重力”“語法”)等,並將這些東西用在句子、解釋、比較或故事敘述之中,對極其複雜的情況剝絲抽繭,得到最基礎的要素,從而令人類心智獲得對世界進行一般性推理的能力。
第四,認知係統是高度結構化的
我們可以預期,真正的人工智能很可能也是高度結構化的,在應對給定的認知挑戰時,其大部分能力也將源自在正確的時間以正確的方式對這種結構進行利用。具有諷刺意味的是,當前的趨勢與這樣的願景幾乎完全相反。現在的機器學習界偏向於利用盡可能少的內部結構形成單一同質機製的端到端模型。
在某種程度上,這樣的係統從概念上來看更簡單,用不著為感知、預測等分別設計單獨的算法。而且,初看起來,該模型大體上效果還算理想,有一部令人印象深刻的視頻似乎也證明了這一點。那麼,既然用一個龐大的網絡和正確的訓練集就能簡單易行地達到目標,為什麼還要將感知、決策和預測視為其中的獨立模塊,然後費心費力地建立混合係統呢?
問題就在於,這樣的係統幾乎不具備所需的靈活性。
在關鍵的應用場景中,最優秀的AI研究人員致力於解決複雜問題時,常常會使用混合係統,我們預期,這樣的情況在未來會越來越多。AI和大腦一樣,必須要有結構,利用不同的工具來解決複雜問題的不同方麵。
第五,即便是看似簡單的認知,有時也需要多種工具
大腦也利用幾種不同的模式來處理概念,利用定義,利用典型特征,或利用關鍵示例。我們經常會同時關注某個類別的特征是什麼,以及為了令其滿足某種形式的標準,必須符合什麼條件。
AI麵臨的一個關鍵挑戰,就是在捕捉抽象事實的機製(絕大多數哺乳動物是胎生)和處理這個世界不可避免的異常情況的機製(鴨嘴獸這種哺乳動物會產卵)之間,尋求相對的平衡。通用人工智能既需要能識別圖像的深度學習機製,也需要能進行推理和概括的機製,這種機製更接近於經典人工智能的機製以及規則和抽象的世界。
要獲得適用範圍更廣的AI,我們必須將許多不同的工具組織在一起,有些是老舊的,有些是嶄新的,還有一些是我們尚未發現的。
第六,人類思想和語言是由成分組成的
在喬姆斯基看來,語言的本質,用更早期的一位語言學家威廉·馮·洪堡(Wilhelm von Humboldt)的話來說,就是“有限方法的無限使用”。借有限的大腦和有限的語言數據,我們創造出了一種語法,能讓我們說出並理解無限的句子,在許多情況下,我們可以用更小的成分構造出更大的句子,比如用單詞和短語組成上麵這句話。如果我們說,“水手愛上了那個女孩”,那麼我們就可以將這句話作為組成要素,用在更大的句子之中,“瑪麗亞想象水手愛上了那個女孩”,而這個更大的句子還可以作為組成要素,用在還要大的句子之中“克裏斯寫了一篇關於瑪麗亞想象水手愛上了那個女孩的文章”,以這樣的方式接著類推,每一句話我們都可以輕鬆理解。
神經網絡先驅學者傑弗裏·欣頓一直在為他提出的“思維向量”而發聲。在深度學習中,每個輸入和輸出都可以被描述為一個向量,網絡中的每個“神經元”都為相關向量貢獻一個數字。由此,許多年以來,機器學習領域的研究人員一直試圖將單詞以向量的形式進行編碼,認為任何兩個在意義上相似的單詞都應該使用相似的向量編碼。
類似的技術被穀歌所采用,並體現在了穀歌最近在機器翻譯方麵取得的進展之中。那麼,為什麼不以這種方式來表征所有的思想呢?
因為句子和單詞不同。我們不能通過單詞在各類情況下的用法來推測其意思。例如貓的意思,至少與我們聽說過的所有“貓”的用法的平均情況有些許相似,或(從技術角度講)像是深度學習係統用於表征的矢量空間中的一堆點。但每一個句子都是不同的:John is easy to please(約翰很好哄)和John is eager to please(約翰迫不及待的想要取悅別人)並不是完全相似的,雖然兩句話中的字母乍看去並沒有多大區別。John is easy to please和John is not easy to please的意思則完全不同。在句子中多加一個單詞,就能將句子的整個意思全部改變。深度學習在沒有高度結構化句子表征的情況下工作,往往會在處理細微差別時遇到問題。
這個例子告訴我們:統計數字經常能近似地表示意義,但永遠不可能抓住真正的意思。如果不能精準地捕捉單個單詞的意義,就更不能準確地捕捉複雜的思想或描述它們的句子。
第七,對世界的魯棒理解,既需要自上向下的知識,也需要自下而上的信息
看一看這幅圖片。這是個字母,還是個數字?
很明顯,這幅圖片既可以是字母,也可以是數字,具體取決於它所在的上下文。
認知心理學家將知識分為兩類:自下而上的信息,是直接來自我們感官的信息;還有自上而下的知識,是我們對世界的先驗知識,例如,字母和數字是兩個不同的類別,單詞和數字是由來自這些類別之中的元素所組成的,等等。這種模棱兩可的B/13圖像,在不同的上下文中會呈現出不同的麵貌,因為我們會嚐試著將落在視網膜上的光線與合乎邏輯的世界相結合。
找到一種方法將自下而上和自上而下兩者整合為一體,是人工智能的當務之急,卻常常被人忽視。
人類對任何一個概念的認知,都取決於概念出現的上下文和其所屬的理論框架。識別出不同的應用場景,不僅可以顯著減少所需數據,還能夠讓AI變得更加可信任。如果AI可以區分畫中的一把刀和真實場景下的刀,就可以做出不同的反應。
同時,人類會對每個事物和人的個體分別進行持續的觀察和跟蹤,以此來將不同時間點的數據進行統一的分析。這也是AI需要向人類學習的方式。
第八,概念嵌於理論之中
嵌入在理論中的概念對有效學習至關重要。假設一位學齡前兒童第一次看到鬣蜥的照片。從此之後,孩子們就能認出其他照片上的、視頻中的和現實生活中的鬣蜥,而且準確率相當高,很容易就能將鬣蜥與袋鼠甚至其他蜥蜴區分開來。同樣,孩子能夠從關於動物的一般知識中推斷出,鬣蜥會吃東西,會呼吸,它們生下來很小,會長大,繁殖,然後死去,並意識到可能有一群鬣蜥,它們看起來或多或少都有些相似,行為方式也相似。
沒有哪個事實是一座孤島。通用人工智能若想獲得成功,就需要將獲取到的事實嵌入到更加豐富的、能幫助將這些事實組織起來的高層級理論之中。
第九,因果關係是理解世界的基礎
深度學習能否成功,在嚐試之前是無法確證的,AlphaGo的設計者在設計之初也不確定能否取得如今的成績,畢竟深度學習能夠找到的規律隻是相關性,而非因果性。
圍棋的棋盤形式和遊戲規則構成了一個相對簡單的因果模型,隻有勝負的結果和單一的時間顆粒度,影響勝負的因素隻有自己如何下棋。因此,和贏棋相關的走法,就等同於導致AI更強的算法改進。
但現實中,尤其是在2B的應用場景下,AI需要在多維度和長時間尺度下,做出同時滿足多種評價標準的決策,此時相關性就不等同於因果性。
第十,我們針對逐個的人和事件進行跟進
你的另一半以前當過記者,喜歡喝白蘭地,不那麼喜歡威士忌。你的女兒以前特別害怕暴風雨,喜歡吃冰激淩,沒那麼喜歡吃曲奇餅。你車子的右後門被撞了個小坑,一年前你更換了車子的變速器。街角那家小商店,以前賣的東西質量特別好,後來轉手給新老板之後,東西的質量就一天不如一天。我們對世界的體驗,是由許多持續存在、不斷變化的個體組成的,而我們的許多知識,也是圍繞著這些個體事物而建立起來的。不僅包括汽車、人物和商店,還包括特定的實體,及其特定的曆史和特征。
奇怪的是,這並非深度學習與生俱來的觀點。深度學習以類別為重點,而不以個體為重點。通常情況下,深度學習善於歸納和概括:孩子都喜歡吃甜食,不那麼喜歡吃蔬菜,汽車有四個輪子。這些事實,是深度學習係統善於發現和總結的,而對關於你的女兒和你的車子的特定事實,則沒什麼感覺。
第十一,複雜的認知生物體並非白板一塊
人工智能要獲得真正的進步,首先要搞清楚應該內置何種知識和表征,並以此為起點來啟動其他的能力。
我們整個行業,都需要學習如何利用對實體對象的核心理解來進一步了解世界,在此基礎之上構建起係統,而不是單純憑借像素和行為之間的相關性來學習一切,以此為係統的核心。我們所謂的“常識”,大部分是後天習得的,比如錢包是用來裝錢的、奶酪可以打成碎屑,但幾乎所有這些常識,都始於對時間、空間和因果關係的確定感知。所有這一切的基礎,可能就是表征抽象、組合性,以及持續存在一段時間(可以是幾分鍾,也可以是數十年)的對象和人等個體實體的屬性的內在機製。如果機器想要學習尚無法掌握的東西,那麼從一開始就需要擁有這樣的基礎。
機器人招商Disinfection Robot機器人公司機器人應用智能醫療物聯網機器人排名機器人企業機器人政策教育機器人迎賓機器人機器人開發獨角獸消毒機器人品牌消毒機器人合理用藥地圖 |