陳根:人工智慧,以科技向善為方向

文|陳根

無人駕駛領域有一個經典的“電車悖論”,而“電車悖論”之所以經典,就在於其涉及到的並不是簡單的演算法問題,而是更重要的道德問題。

原本並沒有這麼多辯論,是因為每個人有不同的道德

在車禍中,人們不得已要犧牲誰的時候,每個人會依賴自己的道德做決定。所以在全社會,看到的是一個多樣化的選擇結果:有的人更保護乘客,有的人更保護路人,有的人先保護老人、有的先保護小孩、婦女等等。

而到了人工智慧時,就將原本分散的問題、落到每個人的頭上是隨機的問題變成了演算法下的固定問題。

即人為設計的人工智慧,成批地把道德觀念統一地固定在了一個地方,就變成了“系統性地犧牲誰”的問題。而系統性保護誰、犧牲誰

就產生了的巨大的、引發辯論的道德和社會問題。

陳根:人工智慧,以科技向善為方向

事實上,儘管人工智慧的理論和演算法漸趨成熟,但人工智慧依舊是一個新生的領域,這也使得人工智慧對社會的影響還在形成之中,而這個過程中,要想充分發揮人工智慧對社會的效用,技術價值觀的建設就顯得尤為重要。

總體來說,人工智慧發展的應以科技向善為方向,

在不斷釋放人工智慧所帶來的技術紅利同時,也要精準防範並積極應對人工智慧可能帶來的風險,平衡人工智慧創新發展與有效治理的關係,堅持人工智慧向善,持續提升有關演算法規則、資料使用、安全保障等方面的治理能力,為人工智慧營造規範有序的發展環境。

顯然,人工智慧在為人類社會發展帶來更多便利、更高效率的同時,也會進一步模糊機器世界與人類世界的邊界,導致諸如演算法歧視、隱私保護、權利保障等風險問題,甚至會引發社會失業、威脅國家安全等嚴峻挑戰。

一方面,過於嚴苛的治理方式會限制人工智慧技術的創新與進步,導致任何技術創新都步履維艱。但另一方面,沒有任何監管與規制的人工智慧極易“走偏”,給人類社會帶來風險與危害,與人工智慧向善背離。

陳根:人工智慧,以科技向善為方向

因此,

應當找到創新發展與有效治理之間的平衡點,堅持安全可控的治理機制,將開放創新的技術發展並重,給予技術進步與市場創新適當的試錯、調整空間,對人工智慧發展既不簡單粗暴、一刀切似地扼殺,也不任其自由氾濫

而是要充分發揮出多元主體協同共治的效能,使各方各司其職、各盡其力,把握好治理原則,守住治理底線,確保人工智慧產業創新活力與發展動力,提升公眾在使用人工智慧技術及產品時的獲得感和安全感。

頂部