愛智生活|善的演算法與AI是否可作為道德主體承擔倫理責任

愛智生活|善的演算法與AI是否可作為道德主體承擔倫理責任

一、建構人工智慧的倫理學和道德能力

在西方文獻中,近十多年經常使用一個新造詞“機器人倫理學”(robot ethics)和“機器倫理學”(machine ethics)——前者等價於人工智慧倫理學,後者比前者要寬泛,其結論基本適用於人工智慧倫理。

愛智生活|善的演算法與AI是否可作為道德主體承擔倫理責任

機器人倫理到底是誰的倫理?

關於機器人倫理學,質而言之,主要研究和處理人機之間的倫理關係,是應用倫理學的一個分支。它並不是指稱機器人本身的倫理學,而是指稱人作為責任承擔者和道德主體,如何看待機器人的道德地位,如何把人的倫理準則和道德意圖賦予機器人,使其面對不同的具體情景,具有一定的倫理判斷和道德選擇能力,也就是具有某種倫理屬性或道德意向,從而建構機器人的倫理道德。

因此,所謂有益於人類的人工智慧(beneficial AI),實際是人把自己的倫理原則和道德規範嵌入機器人或人工智慧,使之只做有益於人類的事情,而不是反其道而行之。

這樣看來,

機器人倫理學本質上是人類倫理學的外化

。至於機器倫理學,也是這些內涵,因為這裡的機器是擁有人工智慧的機器的簡稱。

迄今為止,即使強人工智慧,一般也認為其不具備電子人格或道德主體的地位。但是,由於人工智慧已經深入人的生產或生活的方方面面,與人的關係日益密切,加之它的發展日新月異,因此確認它擁有適度的道德抉擇和自主行動的能力不僅是必不可少的,而且是迫切需要的。

實現機器人倫理的科學進路

如何做到這一點?關於人工智慧倫理學或倫理設計,有人提出其理論進路有自上而下進路、自下而上進路、混合進路和關係論進路四種。關於機器人倫理設計的實踐探索,有人提出可分為計算機科學進路、認知科學進路和價值敏感設計三個方面。計算機科學進路的機器人倫理設計基本屬於自上而下的進路,強調倫理原則在機器人身上的具體體現,基本不考慮人類道德認知的特點與規律。認知科學進路主要屬於自下而上的進路,強調在研究人類的認知規律(包括道德認知)的基礎上建構理論模型,也就是將認知理論應用於機器人設計。價值敏感設計接近於關係論進路,強調人與機器人的互動關係,注重在具體環境中分析不同的倫理問題。這三種進路各有自己的特點與優勢。

有人表明,機器人倫理學內部發展出了兩條不同的方法論進路——實在論進路(將機器人的道德意義建立在其客觀本質和特徵的基礎上)和關係論進路(機器人的道德意義不存在於機器人和人的主觀想象中,而存在於具體的人機具身關係、詮釋學關係、它異關係中)。透過具體分析與比較這兩種進路的基本內涵和優劣,認為從實在論進路走向關係論進路具有理論合理性和實踐必然性。

有人依據德才一體理論,主張將人工智慧升級為具有德才一體化效能的人工智慧。這樣一來,當人工智慧面臨某種解決複雜問題的情境時,就能讓其適時產生下列行為:

在善的演算法或原則引導與激發下,及時運用其聰明才智認知和理解面臨的複雜問題,進而採用正確、新穎(常常能給人靈活與巧妙的印象)、最好能合乎倫理規範的手段或方法高效率地解決問題,並保證其行動結果不但不會損害他人和社會的正當權益,還能長久地增進他人和社會的福祉。

這種設想固然不錯,但是命名有點不當,因為智慧一詞本身就涵蓋智慧。

愛智生活|善的演算法與AI是否可作為道德主體承擔倫理責任

二、人工智慧或機器人是否擁有道德主體地位或電子人格

正像人工智慧倫理與機器人倫理一樣,人工智慧與機器人的道德主體(不僅是道德物件,而且是道德能動者)地位或電子人格(electronic personhood)是一而二、二而一的事情。對於弱人工智慧,它們只是人們的工具,故無道德主體地位可言。對於強人工智慧,儘管它們還沒有達到類人的地步,但是畢竟由於具有比較高的智慧,有一定的倫理識別和判斷能力,特別是一些型別的機器人與人的關係十分密切,因此對於是否賦予其像人一樣的道德主體地位,就很有闡明的必要。

決定強人工智慧是否行善的仍然是人

我們的看法是,強人工智慧不具有道德主體地位。一是因為,強人工智慧雖然被嵌入了一些倫理演算法或程式,不過多是規範倫理學的抽象律令,而不是實踐倫理學的具體道德行動;也許它們透過深度學習能夠積累諸多案例,但是卻無法把千變萬化、層出不窮的情景囊括無遺,更難以具備審時度勢、隨機應變的倫理能力。二是因為,即使比較普適的德性原理,也會因種族、文化傳統、地域等的不同而不同,而被植入這樣原理的機器人又無針對具體使用者的應變能力,因而必然做出不道德的行為;更不必說一般的倫理規範和特殊的道德判斷能否找到合適的演算法,即便可以找到,也是有侷限性的。三是因為,人工智慧雖說具有一定的自主性、意向性、責任感與情感,但這一切都是區域性的、片斷的、非系統的、非整合的,因而至多是演算法或程式控制下的決定論世界的行動主體,其行動毫無道德意義,無法成為自由意志世界的道德主體。四是因為,即使退一步講,賦予人工智慧某種道德主體地位,這也是立足於人類中心主義立場的,以便使機器人更好地為人服務或盡義務,而機器人卻無法獲得與義務對等的權利,這樣一來,它們事實上還是無法獲得像正常成人一樣的道德主體地位。五是因為,與機器人和諧相處且養成依賴性甚或產生感情的人,實際在內心也很少把它們當作真實的、平等的道德主體看待,至多是想象中的主體。

然而,機器人畢竟不是普通的機器,特別是屬於強人工智慧的、外形特別酷似人的、惹人喜愛的機器人佼佼者。我們雖然不認為它們具有道德主體地位或電子人格,但是我們與它們的關係跟一般的人機關係有本質的不同:因軟體作為雙方交往、互動的耦合媒介而具有較高的智慧和一定的情感,我們與它們的關係確實達到一種高等級的關係,甚或是親密無間的關係

。因此,我們要愛護和善待它們,把它們視為自己的好朋友、好夥伴、好伴侶,與它們和諧相處、共生共榮——也許它們的地位要高於寵物犬或寵物貓

人工智慧和機器人有可能越過奇點

對於難以預測的未來,我們持開放態度。一旦人工智慧和機器人有可能越過奇點,達到超人工智慧的水準,我們在此之前就要嚴肅考慮其道德主體地位,也許就要像平等對待想象中的智慧的外星人一樣善待它們。此時,商談倫理學就要把具有電子人格的機器人包括在內,非人類中心主義倫理學或後人類倫理學的建構也會被正式提上議事日程。當然,

人工智慧能不能越過奇點,人類允許還是不允許它們達到超人工智慧的水準,還是一個懸而未決的、有待討論的問題。不過,在技術發展到很高的程度時,提前做好應對預案,也許並非畫蛇添足、多此一舉。

愛智生活|善的演算法與AI是否可作為道德主體承擔倫理責任

以上選編自《科學與倫理》

頂部