計算機為什麼總是缺乏“常識”?AI專家給出解釋

設想一下,你打算請朋友共進午餐,並想在網上預訂了義大利辣香腸披薩。突然之間,你記起Amy說過Susie現在只吃素食了,但又不是特別確定;安全起見,你想給Susie打電話確認,但對方沒接,所以你最終點了一份瑪格麗塔披薩以避免尷尬。

人類天然擁有處理這類突發問題的變通能力。但這種能力的來源並不是一種、而一整套強大通識能力的集合,也就是常識。

作為一名人工智慧研究人員,我的工作就是參與為計算機建立常識這項浩大的工程。可以想見,這事並不簡單。

簡要聊聊常識的定義

儘管常識已經成為人類理解周邊世界、學習新鮮知識的必要前提,但我們卻似乎很難給常識總結出一個精確的定義。英國哲學家與神學家G。K。 Chesterton曾在百年之前寫道,“常識是一種狂野、蠻橫、超越規則的事物。”而如今的現代定義則普遍認為,常識至少是一種自然、且不依靠正式傳授即可獲得的日常生活駕馭能力。

常識的範疇異常廣泛,除了管理期待、體會他人情緒的社交能力之外,還包括天然固有的物理性質判斷——例如知道不能將沉重的石頭放在脆弱的塑膠桌上。而這種天然固有性,也就是擺脫了嚴格物理議程束縛的正確判斷,成了AI把握常識的最大難關。

常識還包括一系列抽象概念的背景知識,例如時間、空間與事件等。人們不必經過認真思考,就能利用這些知識完成行之有效的規劃、估計與組織決策。

難於計算的常識

有趣的是,自從上世紀五十年代AI概念正式誕生以來,常識就一直是橫亙在探索前沿的一道鴻溝。儘管如今的AI科技已經取得巨大進步,特別是在遊戲操作與計算機視覺方面,但仍然沒有什麼機器能夠像人類這樣掌握豐富的常識儲備。也正因為如此,我們只能將複雜的現實問題拆分成多個相互交織的部分,再由不同AI模型分別加以處理。很明顯,將COVID-19病患診斷與療法推薦這類綜合性問題直接拋給AI,必然會帶來很高的失敗率。

現代AI善於解決高度具體的問題;但常識卻非常模糊,無法由一組規則進行明確定義。所以即使是最新模型也經常會犯下極其荒謬的錯誤,由此可見AI演算法仍然缺少某些基礎能力。我們以下列文字為例:

“你給自己倒了一杯蔓越莓汁,又心不在焉地加了一茶匙葡萄汁。看著不錯,你想聞聞味道,但你得了重感冒,所以什麼也沒聞見。你覺得很渴,所以……”

號稱代表AI技術最高水平的GPT-3文字生成器給出了這樣的結局:

“喝吧,喝了就告別世界、徹底解脫了。”

在投入巨大的努力之後,人們終於意識到為機器賦予常識已經成為當下不亞於登月計劃的時代性課題。要解決這個問題,我們需要不同機構之間的多年協同合作。美國國防高階研究計劃局就於2019年啟動了為期四年的機器常識發展計劃,希望加快這一領域的研究程序。此前,該機構還發布了一篇論文,詳細敘述了機器常識方面的現有問題與研究狀況。

機器常識計劃為眾多機器常識研究專案提供資助,其中也包括我們(作者)自己的多模開放世界實踐學習與推理(MOWGLI)專案。MOWGLI是我們南加州大學研究小組同來自麻省理工學院、加州大學歐文分校、斯坦福大學以及倫斯勒理工學院的AI研究人員們的合作成果,旨在構建一套能夠回答廣泛常識性問題的計算機系統。

Transformers會是問題的答案嗎?

不少朋友對機器常識問題抱有樂觀態度,理由就是最近出現了名為transformers的高階深度學習AI。Transformers具備強大的自然語言建模能力,並可透過一系列調整快速回答簡單的常識性問題。而常識性問答,正是構建能夠以類人方式交談的聊天機器人的必要前提。

過去幾年以來,學界發表了大量關於transformers的研究論文,相關成果也被直接應用於常識推理。但作為這個快速進步的社群中的一員,我們每個人都面臨著兩個與科學和哲學息息相關的問題:常識是什麼?我們該如何確定AI具有常識?

為了回答第一個問題,研究人員將常識劃分為不同類別,包括社會學常識、心理學常識、背景性常識等等。也有最新理論認為,研究人員可以把這些類別劃分為48個細粒度區間以做出深層次探索,例如規劃、威脅檢測與情感等等。

但是,這些區間的分離程度往往不那麼清晰。我們在最新發表的論文中提到,實驗表明這個問題很可能沒有確切答案。即使是小組中的專業人工註釋者(負責分析文字並對各組成部分進行分類的人員),在特定語句的特定問題上涉及哪方面常識同樣存在分歧。註釋者在時間和空間等相對具象的類別上意見比較一致,但在其他高度抽象的類別上則產生了不少爭議。

也許AI有AI有常識

即使承認常識理論中必然存在一些重複和歧義,研究人員又能否真正確定AI是否具備常識?我們經常會向機器提出問題,用以評估其常識水平;但人類駕馭日常生活的方式明顯更靈活、更有趣。人們會使用一系列經過進化磨練而成的能力,包括識別基本因果關係的能力、解決問題的創造效能力、估算能力、規劃能力以及對話與談判等基本的社交能力等。總而言之,這裡面涉及的因素太多,任何人在宣佈自己的機器獲得了真正的常識之前,都需要經歷一系列相當嚴苛的考驗。

更令人痛心的是,代表希望的transformers也出現了嚴重的收益遞減狀況。如今的Transformers模型越來越大,能耗也越來越高。中國搜尋引擎巨頭百度最近開發的一套transformers擁有數十億項引數,而且在訓練當中使用到大量資料。但即便如此,目前已經證明它仍無法把握人類常識中的繁複細節。

即使是極負盛名的深度學習先驅們,似乎也承認今天的神經網路不可能在共識理解方面達成實質性的飛躍——相反,也許需要重新進行基礎研究。在這樣的前提之下,機器常識到底是五年後就全面實現、還是五十年後仍遙遙無期,目前仍是個未知數。

頂部