人工智能時代的倫理框架
- 英國國家醫療服務體系NHS就在其健康醫療大數據平臺care.data停擺一事中,失去了這種“執照”。盡管利用NHS數據記錄來提升醫療服務的概念得到了廣泛的支持,但該機構對數據保護問題的處置引起了公眾的強烈抗議,最終摧毀了這項計劃。
- 任何由數據驅動的自動決策,都是基于感知到的風險和責任水平來接受評估。例如,與自動駕駛汽車建議相比,亞馬遜的購物建議得到的關注就要少得多。
- 人工智能兩種不同的發展前景:第一種被稱為“泳池模型”,即人工智能的“池水”將溢滿整個世界;第二種是他自己預測的“坑洞模型”,即人工智能的“水滴”會滴落在一切事物上,但只會注滿特定的“坑洞”。
原文翻譯:
近段時間,數據倫理進入主流視野,我們看到媒體報道了有人在YouTube上宣傳恐怖主義,大數據公司Cambridge Analytica利用Facebook帖子進行個性化競選活動,以及打車應用Uber被無休止的丑聞吞沒。
我們所遵行的原則和法規已難以跟上技術的發展步伐。英國科技企業游說組織techUK召集了一個專家小組,討論了如何確保行為符合規范。技術的最新進步正在不斷延展關于知情同意和隱私的倫理觀念,在這種情況下,我們需要一個新的框架來建立保護數據的標準。
“我們需要可以提供確定性的標準來進行創新。”英國皇家統計學會(Royal Statistical Society)的執行理事赫丹·沙阿(HetanShah)說,“失去了公眾信任,我們就可能失去‘營業執照’。”
英國國家醫療服務體系NHS就在其健康醫療大數據平臺care.data停擺一事中,失去了這種“執照”。盡管利用NHS數據記錄來提升醫療服務的概念得到了廣泛的支持,但該機構對數據保護問題的處置引起了公眾的強烈抗議,最終摧毀了這項計劃。
公眾對數據使用的態度
近期關于數據使用的丑聞使得公眾信任處于低水平。英國皇家學會(The Royal Society)最近展開了一項調查,詢問公眾對一家機構的信任度,以及如果要向該機構提交你的數據,此時你對它的信任度還有多高。
“人們對第二個問題的信任度總是低于第一個。”沙阿說,“如果一家機構掌握著你的數據,你對它的信任度絕不會超過之前它沒有掌握數據時的情況。信任出現了赤字,這是一個社會問題。”
英國皇家學會的科學政策主任克萊爾·克雷格(Claire Craig)參與了一項調查,向擁有不同社會經濟背景的英國公民,詢問他們對于數據使用的看法。這項定性研究揭示,公眾判斷風險的標準始于對動機的感知。
“主要訊息是情境的重要性。”克雷格說,“對于數據的某種應用,他們判斷其風險和好處的基本標準始于對動機的感知。”
“他們真的很關心為什么一項新技術會被引入,為什么會有新的應用,以及數據有哪些,目的是什么。他們也關心受益者,尤其是,如果他們看到它幫到了自己,幫到了像自己一樣的人、像自己一樣的群體以及更大范圍的群體,他們的態度會更加支持。”
從根本上說,消費者需要得到直接的好處。如果這件事幫到了人們,賺不賺錢就不是問題。
任何由數據驅動的自動決策,都是基于感知到的風險和責任水平來接受評估。例如,與自動駕駛汽車建議相比,亞馬遜的購物建議得到的關注就要少得多。
人們支持那些能夠實現更多人際交往的技術應用,比如,技術可以省下時間,讓用戶與親友有更多的交流。
對技術的過度依賴可能導致人們永久性地失去歷代人所掌握的技能。
技術需要被證明能夠增強而不是削弱人類的能力。能夠幫助專業人士省下時間從事更重要工作的技術,將得到廣泛支持,但那些有可能取代人力的自動化技術將讓人們心生警惕,這一點毫不意外。
“人們很擔心自己會被取代,對未來的工作也有很大的擔憂。”克雷格說,“那些潛在的新工作,都在哪里呢?”
隨著技術讓我們走上無個性化的必然道路,并挑戰人之為人的本質和價值,這些擔憂會發展成有關存在價值的恐懼。如果一臺計算機能夠比你更好地完成所有工作,如果一種算法有權力決定你的選擇,那么自由在職業、教育和財政支持等領域遭到限制,似乎就是不可避免的后果。
建立信任
數據的有益使用得到的媒體曝光很少與其負面使用得到的曝光度相同。拉斯維加斯的賭場或許會用數據科學來估算你的消費門檻,并在你達到那個門檻時送上一杯酒,希望你能繼續消費。但同時,我們也看到Streams這樣的應用通過掃描患者數據來預測急性腎損傷風險,從而達到提升醫療效果和減輕護士日常工作負擔的目的。
我們可以通過宣傳正面使用的事例來提升公眾的信任,比如倫敦交通局使用開放數據預測公交車的到站時間,或是食品標準局通過社交網絡來監測諾如病毒的傳播。
咨詢公司FrontierEconomics在最近的一份報告中預測,到2035年時,人工智能將為英國經濟增加8,140億美元的產值,并讓經濟增長率從2.5%上升到3.9%
“這些實實在在的數字令人印象深刻,但它們仍然未能充分反映由數據驅動的技術,比如數據分析和人工智能,將如何積極地改變經濟和生活的方方面面,并真正幫助我們建設更加富裕、更加健康和更加清潔的社區。”微軟英國的政府事務經理歐文·拉特(Owen Larter)說。
美國醫療系統已經在應用能夠進行模式識別的算法技術,來應對醫院中可預防的錯誤,這些醫療事故是位居癌癥和心臟病之后的第三大致死原因。由數據驅動的模式識別技術可以依照既有的最佳臨床實踐,為醫生標記出反常現象,防止這些錯誤造成重大傷害。
如今,英國背負著倫理責任,它要應對一系列挑戰,比如老齡化人口的醫療費用問題,那意味著,今天的NHS到了明天將無法維持。
techUK的副首席執行官安東尼·沃克(Antony Walker)認為,我們開發的數據寶藏能夠拯救生命,但前提是它的潛力得到釋放。
“如果我們希望子孫后代能夠擁有一套免費的醫療服務體系,我們對他們是有倫理上的責任的。”沃克說,“做成這件事的唯一辦法是通過使用數據。”
當涉及計算機代碼時,追究責任可能成為一個難題,但讓整個過程可審計,解釋其中的工作原理,將幫助建立公眾信任。克雷格認為,我們還需要對公眾擔心的事情做出回應。
“透明度是必要的,但絕對說不上什么效率。”他說,“知道發生了什么事,這只是起點。”
問責、職責和責任是一個復雜的三角。最后一個會真正對公司造成損害,也是違規需要得到糾正的地方。
除了上述關于隱私、治理和知情同意的問題,在數據公平和偏見方面,公眾也存在著持續的擔憂。與人的意見相比,算法通常被賦予了更多的信任,盡管算法也是人類情感和偏見的產物。
數據科學仍然是一門相對較新的學科,因此,科學家需要在數據倫理和標準方面,接受全面的訓練。他們設計的算法造成的結果應該接受審計,以確保透明度和安全性。
“我們很難窺視算法的黑箱。”沙阿說。
他希望組建一個獨立的數據倫理委員會,而且,相比建立新的監管機構,他更愿意賦予現有監管機構額外的權力。
邁向未來
牛津大學哲學和信息倫理學教授盧西亞諾·弗洛里迪(Luciano Floridi)一直在研究數據未來的發展,以及未來幾年產生的倫理影響。
他描述了人工智能兩種不同的發展前景:第一種被稱為“泳池模型”,即人工智能的“池水”將溢滿整個世界;第二種是他自己預測的“坑洞模型”,即人工智能的“水滴”會滴落在一切事物上,但只會注滿特定的“坑洞”。
“就連接這些坑洞來說,人工智能不會做所有的工作,那將由人類來完成。”弗洛里迪說,“而且,我們將如何充當人工智能應用與其他人工智能應用,或是與其他需要連接的系統之間的接口,在這方面,我們需要搞清楚的倫理問題還有很多。如何連接這一切,是完全未知的領域。”
新技術總是會為犯罪活動提供新的機會,而私人企業、公共機構和執法部門的追趕步伐可能非常遲緩。在歐洲刑警組織2016年的《互聯網有組織犯罪威脅評估報告》中,有一個章節專門討論了現有的各種網絡犯罪行為,但幾乎沒有提到人工智能。
“很多人都在談論利用機器學習和人工智能來打擊有組織犯罪,但有人在談論有組織犯罪會怎樣使用相同的技術嗎?”弗洛里迪問道,“如果你在操作系統中發現了某種漏洞,你能想象有人利用人工智能系統對這一漏洞進行攻擊后,事情會演變成什么樣嗎?據我所知,只有汽車行業的人在談論這件事。”
人們看到了算法在提升計算機安全性方面的潛力,但它同樣有能力去破壞這種安全性。當自動化技術把這些算法安裝到相同的系統上時,一旦黑客發動攻擊,他們將不再需要逐一破解每輛汽車上的電腦。
不過,我們在私人領域看到了一些積極的發展態勢。企業越來越把數據倫理視為一筆珍貴的資產,尤其是在它們從初創公司成長為大型企業之后。
技術可以改變倫理,比如避孕藥的出現,它在公眾掀起性革命之前,就引發了這樣一場革命。如果要讓數據充分發揮它所具有的變革性潛力,就必須建立一套倫理規范,同時還要搭建一個倫理框架來提供保障。新的制度能否落實到位,取決于政府和行業。