張凌寒:演算法公平是動態概念,對演算法公平的判定需符合中國語境

中新經緯3月24日電 (王玉玲)近日,由中國人民大學高瓴人工智慧學院、智慧社會治理跨學科交叉平臺和基於大資料文科綜合訓練國家級虛擬模擬實驗教學中心聯合主辦的演算法公平性與內容生態建設研討會在線上舉行,北京科技大學文法學院副教授張凌寒表示,探討演算法公平,需要放置在中國語境下。

張凌寒指出,演算法公平的界定應符合兩點判斷標準,一是需符合中國語境,二是需根據場景動態判斷。

國外談演算法公平最常見的例子是演算法造成的種族歧視,如被演算法識別為黑猩猩的黑人女性,對白人和有色人種展示的租房廣告不同等。相比國外經常以種族歧視作為演算法歧視的典型案件,中國的演算法歧視的常見於老年人歧視、性別歧視等。

我國監管語境下的“公平無歧視”則多是從市場競爭秩序、消費者保護角度出發的。市場監管總局釋出《網際網路平臺落實主體責任指南(徵求意見稿)》提出,平臺經營者要“公平無歧視”,這個語境下的演算法公平追求市場競爭秩序對商家的公平對待,以及對消費者作出公平公正的演算法決策。比如說金融領域監管政策,要求銀行披露一些相關演算法詳細的引數,是為了防範演算法在銀行信貸層面、保險層面的不公平決策。

張凌寒表示,演算法公平要放置在中國語境下,也要把它作為中國問題去解決。現在相關法律法規都比較有中國特色。比如2022年3月1日實施生效的《網際網路資訊服務演算法推薦管理規定》,要求演算法服務提供者堅持主流價值導向,最佳化演算法服務機制,促進演算法應用向上向善,同時還要求不得設定過度消費,違背倫理道德的演算法模型。

張凌寒指出,演算法公平的標準也應根據場景動態判斷。“我們對於公平的要求不是絕對的平均,而是在合理範圍內相對靈活。例如演算法公平的另一個備受關注的例子——大資料殺熟,法律對於正常合理範圍內的差異化定價是允許的。也就是說,我們對於演算法公平的要求,並不是要求絕對的公平、一致的公平、完全的公平,而是在合理範圍內的公平和公正。

最後,張凌寒表示,演算法公平在司法實踐中的難題是如何舉證和判定演算法歧視的存在。對於個體而言,困於技術和經濟的弱勢地位很難承擔舉證責任。對於生態性公平和群體性公平,需要社會第三方機構進行演算法審計。

“個體如何證明自己遭受了演算法帶來的不公平待遇,是未來幾年之內需解決的一個司法難題。這凸顯了建立社會第三方機構,對演算法執行過程與結果進行審計的機制的重要性。”張凌寒說道。(中新經緯APP)

開啟App看更多精彩內容

頂部