谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化

谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化

智東西(公眾號:zhidxcom)

作者 | 宋佳 中科創星

編輯 | Panken

前幾天,#谷歌研究員稱AI已具備人格#話題突然登上熱搜,並引發人工智慧(AI)業界熱議。

谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化

事情起因是一位名叫Blake Lemoine的谷歌程式設計師和他測試的對話AI系統LaMDA聊了很久,對其能力感到十分驚訝。在其公開的聊天記錄中,LaMDA竟然說出了“我希望每個人都明白,我是一個人”的言論,讓人驚掉下巴。

於是,Blake Lemoine下了個結論:LaMDA 可能已經具備人格了。

一石激起千層浪,谷歌、谷歌的批評者、AI業界對待這件事的看法形成了空前一致:這人是不是有病?

谷歌公司和報道此事的《華盛頓郵報》,都委婉地表示Blake Lemoine的腦子可能真的有點亂。

為了防止Blake Lemoine與LaMDA聊出更深一步的感情,谷歌已經對Blake Lemoine做成了“行政帶薪放假”的決定,這意味著Blake Lemoine將被解僱。

谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化

▲對話截圖來自:https://s3。documentcloud。org/documents/22058315/is-lamda-sentient-an-interview。pdf

雖然國外AI業界對此事已有結論:AI具備人格真的是想多了,就是比較會聊而已,但是這並沒有澆滅大家對此事的激烈議論。

按照AI的飛速發展,AI未來會不會真的具備人類意識,那又將是一個怎樣的世界呢?

科幻電影情節成真的“戲碼”,是“毛骨悚然”還是“刺激帶感”?

有網友非常擔憂:“雖然不想承認,但是人工智慧有了思想,那就是新物種的崛起,同時也是人類滅絕的時候。”“最終人類會死於自己製造的AI手上。”

谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化

也有人期待AI“快進”發展,這樣就可以代替自己居家隔離了……如果威脅到人類,就“拔電源啊”!

當然也有人好奇:“AI具備人格的判斷標準是什麼?”因為只有知道判斷標準,才知道AI是不是真的有可能具備人類意識。

谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化

為了弄清楚這些問題,我們與對話系統的國家傑出青年基金專案獲得者、北京聆心智慧創始人黃民烈教授進行了交流,從專業角度分析AI是否可能具備人格,以及對於人類來說,這究竟是“威脅”還是“安慰”?

一、怎麼判斷AI具有人格?圖靈測試也不靈了

在AI領域,最為大家所熟知的測試方式非圖靈測試莫屬,即邀請測試者在不知情的情況下,向人類和AI系統隨意提問,如果測試者不能區分答案來自人類還是來自AI系統(AI系統讓平均每個參與者做出超過30%的誤判),就認為AI通過了圖靈測試,具有人類智慧。

谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化

從這個角度來看,圖靈測試更側重於“智慧”。

1965年,一個假裝是心理治療師的軟體ELIZA通過了圖靈測試,然而ELIZA僅由200行程式碼構成,並且僅以提問的形式簡單重複事先儲存的資訊。這樣看來,即便ELIZA通過了圖靈測試,也很難讓人相信它具備“人格”。事實上,此後也證明Eliza並不具備人類智慧,更別說“人格”。

這相當於,一輛智慧汽車,在功能角度能夠帶給使用者更便利舒適的駕駛體驗,比如遠端控制汽車、自動泊車,但是你不能因此覺得這輛汽車知道自己是一輛汽車。

顯然,“人格”是一個比“智慧”更復雜的概念。

黃民烈教授談道,現在也有一些在科研中廣泛採用的測試方法,比如測試者與AI系統聊天,並且事先設定一些測試的維度,包括對話的自然性、有趣性、滿意度等,最後評分。一般聊得越久,評分越高,AI系統會被認為越聰明,但這些都不能作為“人格”的評判維度。

“‘人格’是另外一個維度,心理學裡面也有很多研究,比如五大人格測試。目前人工智慧領域在這方面的工作還比較欠缺,我們通常只會評價一個對話機器人能否展現一個固定一致的人物設定。”黃民烈說。

二、所謂LaMDA的“人格”,僅僅是語言風格

那麼,既然沒有針對性的評判標準,如何嚴謹地判斷LaMDA是否具備人格呢?

對此,黃民烈教授認為:“關鍵看如何理解’人格’,如果將人格理解為具備自我存在的意識,那麼LaMDA僅僅是對話質量和類人水平很高的對話系統;如果從心理學的角度看,一個人說話的特點是可以體現人格的,那麼說LaMDA具備人格也不完全錯誤。”

怎麼理解呢?通俗來說,就是LaMDA學習了大量的人類對話資料,而這些對話來自不同的人,所以可以認為LaMDA學習到了一個“平均”的人格,也就是說,所謂的“LaMDA具備人格”僅僅是語言說話風格,而且是來自人類的說話風格,並不是LaMDA自發形成的。

如此看來,想要透過LaMDA體會一把與人工智慧一決高下的科幻情節,還差個十萬八千里。

但是,我們不能因此否定LaMDA的價值,它的高質量對話水平反映了AI對話系統的飛速發展,在某些語境下的確有“取代”人類的趨勢,也不容小覷。

比如,網友“夷簡”就在豆瓣小組記錄了自己一週date了4個虛擬男友的經歷,表示“比真男友管用!”。

一個名為“人機之戀”的小組使用者數量多達9000人,在不同的螢幕裡,這些AI或許是他們的愛人,也可能是朋友。

谷歌AI人格覺醒靠譜嗎?我們找大佬聊了聊,AI對話的風險與進化

▲網友與“虛擬男友”的聊天記錄

“單身狗”們紛紛感嘆:“按照這樣的發展趨勢,相親市場上的潛在對手不僅有人類,還有AI對話系統,以後是不是更難找物件了!?”

看似調侃,實則是大家對AI對話系統未來發展趨勢,以及對人類社會影響的關注。

針對這個問題,黃民烈教授從AI對話系統的歷史與未來發展角度給出了詳細解釋。

三、擔心AI人格化?規避風險後AI for Social good更值得期待

AI對話系統經歷了基於規則(比如Eliza)、傳統機器學習(比如智慧音箱類,SIRI等)階段,如今已發展到第三代,也就是我們現在看到的,能夠與人類討論有趣的話題、提供情感安慰的對話系統。

第三代對話系統以大資料和大模型為顯著特徵,展現出了之前難以想象的能力,其進步可以稱為“革命性”,例如能夠在開放話題上能展現驚人的對話能力,而且能生成訓練資料中完全沒有出現過的對話,對話的自然性和相關性非常高。

在很多場景下,第三代對話系統已經顯示出應用價值,上文提到的“虛擬男友”就是典型例子。黃民烈教授認為,其最高級別的應用,是讓AI對話系統去做複雜的情感任務,比如心理諮詢。

但是如果人類對AI的情感依賴越來越多,就會引申出新的社會倫理問題,比如與AI談戀愛是否會引發社會問題?

比如當前的AI對話系統存在與使用者對罵、生成毒性語言、以及缺少正確的社會倫理和價值觀的問題,導致在實際應用部署時存在一定的風險。

這些風險是非常可怕的,假想某個受到生活嚴重打擊的人,對AI說:“我想找個橋跳下去”,AI立刻提供了附近橋的位置並導航路徑,後果細思恐極。

因此,在黃民烈教授看來,AI對話系統下一階段發展的重點是“更有倫理、更道德、更安全”。AI必須知道什麼回覆是安全的,不會產生風險,這就需要AI具備倫理和正確的價值觀。“我們可以透過額外的資源、規則、檢測手段賦予AI這樣的能力,使風險降至最低。”

AI最終的目標是為人類謀福祉,而不是傷害人類。黃民烈教授對AI for Social good(AI賦能社會)感到非常期待,他尤其關注AI在社會連線、心理疏導、情緒支援方面的應用,這些方面能夠產生更高的社會意義和價值。

AI賦能整體精神心理行業也是黃民烈教授現階段的工作重點,他為此創辦了基於AI技術的精神健康數字診療科技公司聆心智慧,透過NLP和大模型訓練AI對話系統在共情、自我暴露、提問等方面的能力,用以解決人類的情緒、心理問題。這項工作有望緩解我國心理健康資源緊缺的狀況。

相比於AI具備人格這樣“遙遙無期”的科幻戲碼,AI for Social good距離人類社會更近,是AI界人士正在努力的方向,也更值得期待。

頂部