“公平”,人工智能做得到嗎?
2020東京奧運會一如既往地緊張激烈。7月28日體操男子個人全能決賽中,中國選手肖若騰在賽場上的表現,可以稱得上是發揮完美、零失誤。但最終,肖若騰以88.065分的成績僅摘得男子個人全能銀牌。
遺憾之余我們想問,在追求公平的道路上,還有多少難題未決?
在科技發展如此迅速的當下,體育賽事可不可以應用人工智能技術作為輔助判罰手段呢?
人工智能裁判發展水平
在2013年,NBA就引入Sport VU系統,通過懸掛在每個競技場天花板上方的6個3D高清攝像頭與計算機數據分析連接,每臺相機每秒可拍攝25幅圖像,各類傳感器與超級攝像機相連,動態捕捉、跟蹤分析、提取數據,并將處理后的數據輸入NBA數據庫。NBA的金州勇士隊作為硅谷科技大亨和技術狂人們的寵兒,在此系統幫助下,奪得2018年NBA總冠軍。金州勇士隊也從此被譽為“NBA中的谷歌”。
目前,有關人工智能技術在體育比賽中應用的研究相對較少,主要集中在輔助判罰方面,也就是“鷹眼”在網球、排球等項目中應用。所謂的“鷹眼”,又稱即時回放系統。它利用高速攝像機從不同角度捕捉在快速運動中的目標軌跡,確定起止點,輔助裁判評判比賽。“鷹眼”存在的意義在于,它克服了人類眼睛觀察能力上存在的缺陷,幫助裁判做出精確公允的判斷結果。
2018年俄羅斯世界杯中,賽場采用視頻助理裁判VAR系統,其利用視頻回放幫助裁判做出決定。這是VAR系統首次應用于足球世界杯這項頂級賽事。小組賽階段平均每場比賽使用VAR 6.9次,借助VAR使判罰正確率從95%提高到99.3%。
那么類似地,是不是在武術、舞蹈、跳水等體育運動中,使用人工智能就可以降低裁判的主觀性,使比賽更加公平公正呢?
實際上,目前人工智能裁判技術離成熟還有很長的距離,體育人工智能技術還遠遠滯后于計算機科學的發展,存在著一系列軟件和硬件匹配的問題。
“算法歧視”
人工智能裁判替代人類裁判最大的難題是讓機器“看懂”體育比賽,但反過來,有機會使用了這項技術的我們,往往也很難“看懂”人工智能。
隨著算法復雜程度的日益提高,通過機器學習過程形成的決策越來越難以解釋AI內部的代碼,也就是說,算法存在“黑箱”,導致人們無法控制和預測算法的結果,而在應用中產生某種不公平傾向。
一般情況下,基于算法“黑箱”以及普通消費者對平臺定價方案的信任,用戶們通常不會質疑自己的購買價格與其他消費者不同,更難以識別出如此隱蔽又“聰明”的價格歧視,而廣大消費者就在這種毫不知情的情況下被迫接受各個平臺差異化的付費模式,這就是所謂的“大數據殺熟”,也是不公正現象的體現。
目前市場上廣泛應用的大多數人工智能系統都是不透明的,加上商業秘密的保護制度,這意味著它們通常能夠規避審查,脫離現有的監管體系,在缺乏外部監督的情形下,不僅僅可能增加歧視性操縱,在算法使用者的有意遮掩下,還可能將算法黑箱逐漸遷移至監管的真空地帶,導致既有的監管體系無法有效打開算法“黑箱”。
華南理工大學的肖田認為,“期望算法、模型等數學方法重塑一個更加客觀公正的現實社會”的“數學洗腦”式想法未免過于一廂情愿。
“算法歧視”的本質是延伸了人類現實世界中的社會歧視。《自然》雜志曾發表社論,認為大數據算法中不容忽視的潛在風險使它們有可能增加偏見,并復制或加劇人類的錯誤。并指出大數據算法應該承擔更多責任,并消除或減少社會歧視,而非加劇社會歧視。也就是說,大數據是一面反映人類社會生活的鏡子,算法通過分析歷史數據預測未來,而人類直到現在仍然未能消除的歧視和偏見,很可能通過大數據導入算法。
原始訓練數據存在偏見,在算法執行時可能將這些偏見帶入決策過程。鑒于算法本身不會質疑其所接收到的數據,只是單純地尋找、挖掘數據背后隱含的結構和模式,如果人類輸入給算法的數據一開始就存在某種偏見或喜好,那么算法獲得的輸出結果也會與人類偏見相同。
一方面,算法的應用具有機制化和廣泛性,一個算法模型通常會被重復使用,由此造成的影響就會越來越大。
這方面影響是否可以通過技術本身進行消除呢?亞利桑那大學人工智能實驗室研究人員Ahmed Abbasi在《哈佛商業評論》發表了文章,以數據作為切入點,闡釋了若干防止算法歧視的方法。其中之一的對策是“過度抽樣”,即從人口學的統計方法出發來設計算法模型,提高算法輸出結果的準確率。除此之外,“將額外的公平性措施引入機器學習,比如手工放大、縮小少數族群或邊緣案例的重要性”也可以用來糾正算法模型產生的歧視。
但僅僅如此仍然不夠。因為另一方面,算法偏見不僅會帶來計算結果的偏差,還將導致倫理、法律風險,這一方面的矛盾在醫療領域尤為突出。
目前,在醫院內實際應用過程中還未有針對AI的倫理審查機制,有醫院參照藥物臨床試驗引入的倫理審查機制對醫療AI引入進行倫理審查,但很難做到完全適用。更多醫院對醫療AI的引入并未經過倫理審查,也有醫院在對患者應用醫療AI系統時嘗試用患者知情同意書來規避一些潛在風險。
國家藥品監督管理局出臺了對醫療AI的相關指導規范,并已啟動了認證流程,從范圍、風險、臨床試驗上進行了規定。
當前階段,醫療AI的最后結果仍需要人工校驗審核,醫生承擔由此對患者診療結局的責任。未來臨床廣泛引入醫療AI后如何實現問責,現在仍不明確。
人工智能法律規制
如同大數據專家、《大數據時代》一書的作者舍恩伯格所說,大數據的特征是追求效率,而不是絕對精確;追求的是相關性,而不是因果性,在現代社會,大數據和算法結合已經顛覆了傳統的決策方式。那么,是否存在一種價值中立的平等算法,或者說存在憲法和法律平等保護的“唯一正確答案”,以供法院來遵循或借鑒呢?中國人民大學法學院的丁曉東副教授表示:“這是一個不可能的任務。”
中國社會科學院法學研究所助理研究員徐斌認為,算法應用過程產生的偏見與歧視暫時還未成為中國社會關注的焦點,而且在“弱人工智能”的語境下,針對人工智能展開的種種法律規制都需要和具體的應用場景相結合。由于立法活動不能對快速變化的社會關系進行規范,所以可能我們現在還無法對人工智能采取一般化的法律規制。這意味著,我們目前需要在摸索中構建和完善治理算法歧視的各項法律規制。
目前,我國對包括算法歧視在內的人工智能法律規制仍然處于起步階段,在監管層面上,目前在針對電子商務的立法中已經有個別條款對算法歧視進行了規范。比如,《電子商務法》的第18條首次明確對“大數據殺熟”做出因應,該條款規定電商平臺在進行商品推薦和廣告推送的同時也要向消費者展示不包含用戶畫像的服務內容。此外,《電子商務法》的第40條還對搜索引擎服務中的競價排名予以規定,它要求服務商必須顯著地標明相關信息,實際上該條款對算法控制者提出了信息披露義務。
國務院于發布了《新一代人工智能發展規劃》,該指導文件明確要求政府在風險控制和市場監督等方面履行相應的職能,并圍繞人工智能建立“全流程型”監管體系。
“通過算法稽查、無監督訓練等方式避免或糾正偏見,保持人工智能透明公正是發展的必由之路。”上海交通大學附屬兒童醫院院長于廣軍表示。
一方面,監管部門定期審查算法控制者所使用的算法是否符合預定軌道,是否造成歧視性后果。如果自動化算法對受保護群體產生差別性影響,那么監管部門應當將審查結果向公眾披露。另一方面,在算法透明性缺失的情況下,監管部門應當審查算法控制者是否提供了必要的訪問途徑,以便于個人或組織能夠審查那些影響公共利益的算法。
公平是相對的,不公平反而是絕對的。人工智能作為一項充滿無限想象力的全新技術,不僅沒有顛覆這個道理,反而驗證了它,甚至給出了算法歧視這個前所未有的難題。面對這樣的現實,如果求得公正的方案是無解,那么唯有搶先擁有制定規則的話語權,以更強大的實力取勝。