你的人工智能準備好接受監管了嗎?
現在,隨著圍繞人工智能(AI)的類似法規在世界多個地區開始實施,業界對GDPR的經驗可以告訴企業如何準備應對對其人工智能的不可避免的監管審查。
公司應該面對現實
GDPR的某些部分引起了不小的企業恐慌,因為當時的新規定要求企業提供準確和可理解的解釋,說明算法分析(特別指機器學習模型)是如何做出決策的。條例賦予個人要求和接受自動化決策解釋的權利,盡管很少有消費者在這一領域真實地行使他們的權利。
不過,盡管GDPR已經問世六年,但都沒有催生出一個關于機器學習可解釋性的行業標準。因為我們仍在尋找理解和控制分析的明確準則,從更廣泛的角度來看,最終的人工智能監管之路也可能是一條坎坷的道路。
事實上,政府對人工智能技術的開發和使用方式進行監管是不可避免的。其中一個主要原因是人工智能的自我調節有很高風險。
2021年進行的一項研究表明,在人工智能領域,高管們對公司的責任應該是什么沒有達成共識。例如,在參與研究的公司中,只有22%設有內部道德委員會。一些高管認為人工智能應用不需要符合道德規范,它們只需要被劃分為高風險或低風險即可。另一些人則因為沒有確定什么是“足夠公平”的工具,也沒有界定什么是偏見的標準而苦惱。
風險暴露(并最終與政府監管相沖突)對于推動參與度非常重要,可以將人工智能提升到董事會層面的一個話題。如果首席風險官(CRO)沒有跟蹤人工智能風險,他們應該跟蹤。更有針對性的是,CRO應該倡導全面的企業人工智能治理框架,定義道德人工智能標準和模型開發程序,以一種他們能夠支持的方式,并經得起監管審查。
雖然GDPR可能沒有引發個人消費者對分析決策的內部工作方式的擔憂激增,但就連專家也認為人工智能的強勁勢頭絕對不是什么好兆頭。一份2021年的皮尤研究報告指出:
大量(專家)受訪者認為,地緣政治和經濟競爭是AI開發者的主要驅動力,而道德問題則是次要因素。這些專家中有一部分人表示,人工智能工具的創造者是在團隊中工作的,他們幾乎沒有或根本沒有動機去設計解決倫理問題的系統。
為了避免訴訟、消費者的不信任、維權團體的反彈,以及最終更廣泛的政府監管,企業需要成長起來,擁有自己設計人工智能系統的方式,并面對和管理人工智能風險。
有很多人都在努力,想要變得合乎道德,但沒有多少人支持用具體、可衡量、清晰的術語定義“合乎道德的人工智能”。如果企業集體對GDPR的可解釋性部分不予回應,表明組織將如何應對新生的人工智能法規,那么他們將難以理解新法規如何應用(以及哪些部分),合規將如何衡量,以及通過或失敗的門檻在哪里。這種解釋、衡量和門檻的混亂混合將導致更大范圍的混亂。
我們需要人工智能的道路規則
任何人工智能法規要想成功,都需要像高速公路系統一樣——有速度限制,違規行為可以客觀衡量和處罰。因此,由于企業和行業似乎無法就如何解釋分析決策或人工智能模型達成一致,因此需要引入專家,并賦予他們做出艱難決策的權力:定義可接受的特定工具和算法,并將行業衡量的通過/失敗指標標準化,而不是簡單的“自我報告”標準和關于如何滿足這些標準的大量混亂行動。
通過這種方式,我們可以客觀地衡量AI是如何發展的,它的功能是什么,它的工作做得好和正確,還是不好和錯誤?
國外某些行業在分析模型、分析決策、違規和處罰方面處于領先地位。例如抵押貸款行業就是一個很好的例子。信貸決策遵循旨在消除偏見和歧視的指導方針。不遵守規則(使用有偏見的數據、決策標準或模型)的銀行將面臨監管機構的嚴厲處罰,并最終失去消費者的信任和業務。
法律將推動人工智能的倫理
人工智能倡導團體的崛起,比GDPR和相關法規預期的個人投訴擁有更大的影響力。這些團體正在推動人們更多地認識到人工智能對消費者生活的影響,當然,還有可能因有偏見的人工智能而承擔法律責任。最重要的是,風險暴露往往會促使企業解決人工智能的倫理和偏見問題,特別是在使用人工智能的創新企業是集體訴訟的目標的情況下。