專家視點:沒有監管的AI會產生倫理偏見
透明度通常在道德商業困境中發揮關鍵作用——我們擁有的信息越多,就越容易確定什么是可接受的和不可接受的結果。如果財務錯位,誰犯了會計錯誤?如果數據被泄露,誰負責保護數據,他們的行為是否正確?
但是,當我們尋找錯誤或問題的明確來源并且找不到人時會發生什么?這就是人工智能提出獨特的道德考慮的地方。
人工智能在組織中顯示出巨大的潛力,但它在很大程度上仍然是一種正在尋找問題的解決方案。這是一個被誤解的概念,實際應用尚未在企業內完全實現。再加上許多公司缺乏以真正轉型的方式應用人工智能的預算、人才和遠見,人工智能仍遠未達到臨界規模,而且容易被濫用。
但僅僅因為人工智能在日常業務中可能不是超可見的,并不意味著它在您的組織內的某個地方沒有發揮作用。就像商業中的許多其他道德困境一樣,人工智能中的道德失誤經常發生在陰暗處。無論有意與否,人工智能項目或應用打破道德界限的后果可能是噩夢。避免人工智能中的道德失誤的關鍵是從一開始就對項目進行公司治理。
以透明和信任構建人工智能
到目前為止,我們都熟悉 AI 出錯的流行示例。對于深色皮膚的顧客不能正常工作?的皂液器,對白種人來說更準確的脈搏血氧儀,甚至預測罪犯是否會重新入獄的算法,都是人工智能(可以說是無意中)存在偏見的故事。
這些情況不僅會引起糟糕的頭條新聞和社交媒體的強烈反對,而且還會破壞更合法的人工智能用例,如果繼續以不信任的態度看待這項技術,這些用例將無法實現。例如,僅在醫療保健領域,人工智能就有可能改善癌癥診斷?并標記高風險再次入院的患者以獲得額外支持。除非我們學會建立人們對人工智能的信任,否則我們不會看到這些強大解決方案的全部好處。
當我與同行和商業領袖談論人工智能時,我從一開始就支持人工智能工作中的透明度和治理理念。更具體地說,這是我的建議:
1、道德人工智能不可能在真空中發生
如果實施不當,人工智能應用可能會產生重大的連鎖反應。當單個部門或 IT 團隊開始在沒有監督的情況下嘗試 AI 驅動的流程時,通常會發生這種情況。如果他們的實驗出錯,團隊是否意識到可能發生的倫理影響?部署是否符合公司現有的數據保留和訪問策略?沒有監督,很難回答這些問題。
而且,如果沒有治理,如果確實發生了道德失誤,那么召集糾正道德失誤所需的利益相關者可能會更加困難。監督不應被視為對創新的壁壘,而是一項必要的檢查,以確保人工智能在一定的道德范圍內運行。監督最終應該落在擁有他們的組織中的首席數據官,或者如果 CDO 角色不存在,則由首席信息官負責。
2、始終有計劃
我們看到的關于 AI 項目出現問題的最糟糕的頭條新聞通常有一個共同點,即處于其中的公司在出現問題時不準備回答問題或解釋決策。監督可以解決這個問題。當組織的最高層存在對 AI 的理解和健康哲學時,就不太可能因問題而措手不及。
3、盡職調查和測試是強制性的
通過更多的耐心和更多的測試,許多人工智能偏見的經典例子都可以得到緩解。就像洗手液分配器的例子一樣,一家公司展示其新技術的興奮最終適得其反。在產品公開發布之前,進一步的測試可能會發現這種偏見。此外,任何人工智能應用程序都需要從一開始就進行嚴格審查。由于人工智能的復雜性和不確定的潛力,必須戰略性地謹慎使用它。
4、考慮人工智能監督功能
為了保護客戶隱私,金融機構投入大量資源來管理對敏感文件的訪問。他們的記錄團隊仔細分類資產并構建基礎設施,以確保只有正確的工作角色和部門才能看到每一個。這種結構可以作為構建組織人工智能治理功能的模板。一個專門的團隊可以估計人工智能應用程序的潛在積極或消極影響,并確定需要多久審查一次其結果以及由誰來審查。
對于尋求數字化顛覆的企業來說,試驗人工智能是重要的下一步。它將人類工作者從平凡的任務中解放出來,并使某些活動(如圖像分析)能夠以以前在財務上并不謹慎的方式進行擴展。但這不能掉以輕心。人工智能應用必須在適當的監督下仔細開發,以避免偏見、道德上有問題的決定和糟糕的業務結果。確保對組織內的 AI 工作進行了正確的訓練。最嚴重的道德失誤往往發生在黑暗處。