收好這6大tips,妥妥解決AI治理問題
人工智能治理涉及企業內的許多功能領域——數據隱私、算法偏差、合規性、道德規范等等。因此,要做好人工智能技術使用的治理工作需要在多個層面上采取行動。
塔塔咨詢服務公司數據和分析業務主管Kamlesh Mhashilkar認為:“這不僅僅涉及IT層面或者項目層面。”他說,人工智能治理也發生在政府、董事會和首席安全官等層面。
例如,在醫療健康領域,人工智能模型必須通過嚴格的審核和檢查。許多其他行業也有適用的法規。Mhashilkar說:“在董事會層面,這關乎到經濟行為。引入人工智能時,會面臨哪些風險?”
至于高管,人工智能議程是有目的的。例如,首席財務官要考慮股東價值和盈利能力。首席信息官和首席數據官也是關鍵的相關方,營銷與合規主管當然也是。更不用說客戶和供應商了。
構建人工智能治理戰略時,并非所有企業都需要在各個方面采取行動。盡管如此,所有企業都在或者很快將要使用人工智能和相關技術,即使這些技術只是嵌入到他們使用的第三方工具和服務中。
在沒有適當監督的情況下使用人工智能時,它有可能犯錯,導致損害企業運營、侵犯隱私權、違反行業法規,或者會對企業造成不良聲譽。
以下介紹有遠見的企業將人工智能項目從試點擴展到實際使用時,怎樣開始解決人工智能治理問題,重點關注數據質量、算法性能、合規性和倫理道德等。
人工智能的倫理道德問題
如今,很少有哪個領域比面部識別更充斥著倫理道德問題。濫用面部識別的可能性很大,提供面部識別技術的企業受到了公眾的抵制,有時還受到自己員工的抵制。
Patriot One科技公司的子公司Xtract AI就是這種情況,該公司使用圖像識別來發現攜帶武器的人。
Xtract的運營副總裁Justin Granek說,這項技術還可以用于其他場合,比如識別那些不戴口罩,不遵守社交距離準則的人。
他說:“倫理道德是一個主要話題。對我們來說,很多事情都是自下而上的。我們的員工在說,‘我們在做什么?’,并強烈要求領導層制定我們的治理政策。”
他說:“客戶有自己的一套要求,我們得找到平衡點。我們的一家客戶是加拿大國防部,還有些客戶來自醫療健康行業。他們會從不同的角度看待這個問題。”
他說,最大的問題是為哪些客戶工作,以及這項技術應該做什么樣的工作。這涉及到關乎企業使命的重大決策。還要解決一些技術問題,這些問題都是從數據開始的。
正確獲取數據
算法偏差的最大來源是數據集。例如,對于面部識別,數據集一直沒能很好地代表一般人群。Xtract AI運營副總裁Justin Granek說:“它們偏向于白人男性。我們正在糾正,但還有很多工作要做。”
專家可以幫助解決數據偏差問題,商業數據提供商正在努力填補他們提供的數據中的空白。Granek說,也有創建合成數據集的方法,但解決辦法往往歸結為去獲得更好的數據。
對于Xtract的檢測算法來說,這意味著建立實驗室,放上各種各樣的退役槍支,讓很多人帶著槍以不同的方式,在不同的地方走來走去。
他說:“一種天真的做法是,就在好萊塢大片里尋找人們持槍行走的畫面,但這并不能代表全部。”
相反,Xtract盡力收集大量的個人信息作為訓練數據。Granek說:“沒有規定誰可以攜帶武器。有一些學生,還有更年長的個體,我們有很多不同的個體。”
對于一些人工智能應用程序,準確、有代表性的數據集決定了生存與否,具有重大的道德和倫理意義。但即使不良數據集的影響不會導致問題,它們仍可能給企業帶來運營或者財務損害,或者導致監管與合規問題。
世界上最大的建筑材料分銷商、總部位于墨西哥的Cemex公司便非常關注后一個問題。這家公司已有100多年的歷史,正通過在供應鏈管理和運營中使用人工智能來重塑自我。
大約三年前,Cemex公司開始研究人工智能及其相關技術,以擴大市場份額,改善客戶服務,提高利潤。
該公司首席人工智能官Nir Kaldero介紹說:“去年和今年,我們實際上看到了人工智能在全球范圍內的價值——而不僅僅是某個地方的小規模試點。”
他說,隨著人工智能已經牢固地融入企業基因中,Cemex意識到有必要圍繞人工智能建立治理結構。
一切都從數據開始。Kaldero說:“沒有好的信息架構,就沒有好的、可靠的人工智能。沒有好的信息,就不可能有好的、可靠的模型。”
在Cemex公司,數據治理涉及安全、監控、隱私、合規和倫理道德規范。公司需要知道數據的位置,在哪里以及怎樣使用,是否符合監管要求以及有沒有偏見。
Kaldero說,Cemex依靠Snowflake數據平臺來管理數據,利用Satori來管理訪問,還有一位高管專門負責數據,領導治理團隊的另一位高管則負責治理工作。
建立正確的模型
除了數據治理之外,Cemex公司還開始圍繞人工智能模型和結果進行治理。Kaldero說:“這是新生事物。不僅僅是為了Cemex,也是為了全世界。”
這項任務由Kaldero的人工智能和數據科學小組以及首席信息官小組共同承擔。
Cemex公司目前使用人工智能來預測零件需求,這樣就可以通過與供應商達成更好的交易來節省資金。公司還使用了人工智能來安排卡車的路線和調度,以及銷售和定價。如果這些計算中有任何一項不正確,該公司將蒙受巨額損失。
因此,為了防止模型漂移和算法偏差,Cemex公司使用了西雅圖Algorithmia公司的技術。
KenSci是另一家關注人工智能模型下游后果的公司。這家總部位于西雅圖的公司利用人工智能來分析醫療健康數據,在這一領域,準確的人工智能模型真的是人命關天。
該公司的首席數據科學家Muhammad Aurangzeb Ahmad說:“我們總是首先與具有代表性和多樣化的相關方一起評估人工智能模型的目標。”為了確保這些模型是透明和負責任的,其核心組成部分包括了可解釋性。
他說:“我們甚至發布了開源的Python包fairMLHealth,任何人都可以用它來衡量機器學習模型的公平性。”
Ahmad還建議檢查人工智能模型在不同群體中的表現,以確保公平地對待其他弱勢群體。
他說:“人工智能模型的透明性和可解釋性使得它們更容易被最終用戶使用和信任。而且更容易接受檢查,并在需要時予以糾正。”
人工智能與倫理道德
在制定治理策略時要考慮的另一個關鍵領域是人工智能使用的倫理道德。Ahmad說:“立法沒有跟上技術的發展。機器學習系統的創造者有責任結合倫理道德目標來衡量系統的價值。當需要權衡時,我們應該慎之又慎。”
數字服務咨詢公司Nerdery的首席技術官Joe Tobolski認為,企業越來越意識到人工智能可能帶來倫理道德風險。他說:“他們是否完全清楚自己運行的是什么系統,隱藏在背后的訓練數據是什么?可能不會。”
很少有企業在他們的人工智能項目、數據源和技術使用上采用明確的人工智能倫理道德規范。他說:“這就是我希望看到我們去做的事情——有一個強大的、規范性的框架來規避這些問題。”
Cemex是一家有意限制人工智能使用的企業,目的是盡量減少可能出現的倫理道德問題。例如,Kaldero說,公司會優先考慮改善服務和幫助客戶的項目,而不是那些簡單地減少員工數量的項目。
他說:“企業的核心是員工,而不是技術。我們可以實現所有客戶呼叫中心的自動化,但這不符合我們的利益。Cemex非常自豪能成為一家為人們提供就業機會的用人單位。在我們企業的使命中,有這些是很美妙的。”
選擇人工智能項目是為了對員工隊伍產生積極影響。以安全為例。Kaldero說:“這對人工智能來說是一個巨大的創舉。Cemex已經大大減少了事故,幾乎為零。而要想完全歸零的方法就是通過圖像識別。”
人工智能治理策略
對于總部位于馬薩諸塞州斯普林菲爾德的人壽保險公司MassMutual來說,人工智能治理是建立在一套不斷發展的數據倫理原則基礎上的,這些原則指導著行動和決策。
該公司的數據、戰略和架構主管Sears Merritt表示:“我們專門制定了一套原則,用人工智能來發展業務,使企業價值觀和保單持有人的利益相一致。我們還成立了一個部門,通過建立政策框架來監督人工智能的使用。”
大約一年前,MassMutual開始研究人工智能倫理道德和治理,當時該公司意識到需要證明并確保使用人工智能是為了保單持有人的利益。
Merritt現在監管一個由6人組成的部門,其中包括人工智能倫理道德和治理顧問,他們跟蹤算法是否遵循治理原則以及它們隨時間怎樣變化,為公司已經遵循的方法建立一種正式的結構。
Merrit說:“我們認為,我們的工作會對所有相關方產生巨大影響”,他建議從符合企業價值觀和客戶利益的核心原則入手,與法律、合規、道德和商業領域的合作伙伴合作,堅持實施下去。
他介紹說,MassMutual接下來計劃是將其框架推廣為業內最佳實踐。
護欄的重要性
博思艾倫咨詢公司(Booz Allen Hamilton)高級副總裁John Larson說,我們應該熟悉人工智能治理的很多最佳實踐。
他說:“我干這行已經25年了。開發軟件和算法的原理,以前都有。而沒有的是數據的速度、處理能力和學習算法。”
人工智能系統對訓練數據的需求非常大,使用的數據集通常比以往任何時候都大,而且,由于當今企業的數字化,數據正以前所未有的速度源源不斷的從網站、網絡傳感器、物聯網設備和其他來源傳入。
處理這些數據的能力也比以往任何時候都要高得多,這在很大程度上要歸功于幾乎可以無限擴展的云資源。
最后,一些人工智能系統的反饋特性意味著,它們實際上是靠自己邊干邊學,而這類學習可以把它們帶到意想不到的方向,速度之快讓人類無法作出反應。
Larson說:“25年前的治理模式——原則是一樣的,但它們不能完全適應我們所面臨的挑戰”,他補充說,解決方案是在人工智能系統中構建自動防護措施。
例如,開發人員可以設置護欄。如果模型的預測精度偏離了預定目標,或者模型在設計參數范圍內停止運行,則可能需要某種形式的干預。同樣,如果進入系統的數據不再反映所需的特性,則可能會發出警報,要求重新評估數據源,或者選擇更適合傳入數據的不同模型。
還可以通過其他方式監控人工智能系統。例如,有助于在問題導致監管罰款或者出現公共關系災難之前發現問題。
Larson說:“已經開發出了一些工具——谷歌有,微軟也有,可以評估一個模型是否對某些東西有偏見。在博思艾倫,我們也在開發其中一些工具包,并試圖為我們所有的數據科學家提供工具。”