盡管存在不確定性,首席信息官們仍希望加強人工智能治理
隨著人工智能的使用、創新和監管混亂超過了已批準的標準,IT領導者只能開發內部方法來降低人工智能風險,依靠框架、工具和他們的同事來正確使用人工智能。
隨著越來越多的人工智能項目從概念驗證轉向生產,首席信息官將承擔額外的壓力,制定人工智能治理政策,以保護企業和他們的工作。
觀察人士表示,美國政府和歐盟以及頂級市場研究人員并不缺乏人工智能治理框架,但毫無疑問,隨著新一代人工智能創新超過正式標準,首席信息官們將需要在2025年制定和完善內部人工智能治理政策,并在這一過程中爭取整個高管層的參與,以確保他們不是一個人。
在這方面,管轄權的不平衡正在發揮作用。
IDC研究主管Grace Trinidad表示:“根據2024年2月的一項調查,在負責任的人工智能政策制定和行為準則制定方面,美國組織與歐洲組織不相上下,但在建立多學科/跨部門治理委員會方面落后于歐洲組織,這是歐盟人工智能法案的建議。”她敦促首席信息官們不要單獨承擔人工智能治理。
例如,IDC建議將NIST人工智能風險管理框架作為合適的標準,以幫助首席信息官在內部開發人工智能治理,以及歐盟人工智能ACT條款,Trinidad說,他在一篇報告中引用了人工智能治理某些方面的最佳實踐。
Trinidad指出,首席信息官們承認,有無數種方法可以實施人工智能治理,其中大多數已經開始實施至少一些項目,盡管并非所有項目都已到位。
為此,Ciena首席數字信息官CraigWilliams表示,這家網絡公司成立了人工智能工作組,以解決治理方面的挑戰。
Williams說,“我不認為未來人工智能的治理會由單一實體或政府自己擁有——這太具有挑戰性了。然而,企業需要建立自己的治理流程,以確保端到端的問責制。我們認識到人工智能系統需要透明、公平和問責制。因此,我們已經竭盡全力確保在治理過程本身中涉及到正確的利益相關者。”
專家和IT領導者說,跨職能的努力是關鍵。
Williams說:“治理實際上就是相互傾聽和學習,因為我們都關心結果,但同樣重要的是,我們如何達到結果本身。一旦你跨過了那座橋,就可以迅速轉向人工智能工具和實際項目本身,這要容易得多。”
隨著人工智能創新的蓬勃發展,TruStone金融信用合作社也在努力建立一個全面的人工智能治理計劃。
TruStone執行副總裁兼首席技術官GaryJeter說:“每周都有新的生成式人工智能平臺和能力出現。當我們發現它們時,我們會阻止訪問,直到我們能夠徹底評估我們控制的有效性。”他指出,作為一個例子,他最初決定阻止b谷歌的NotebookLM訪問,以評估其安全性。
與許多企業一樣,TruStone在全公司范圍內部署了一個名為TruAssist的政策和程序生成人工智能平臺。
Jeter說:“所有大約560名團隊成員都在使用這個人工智能工具快速訪問500多項政策和程序,大大節省了時間,并增加了巨大的價值。我們在2023年11月啟動了價值證明試點,并在2024年2月之前向所有團隊成員推廣。這非常快,我們學到了很多。我們正在采取一種更保守的方法,將生成式人工智能用于面向成員的應用程序,但我們正在取得進展。”
人工智能治理框架和平臺
旅行者是另一家大型企業,該公司的執行副總裁兼首席技術和運營官MojganLeFebvre表示,該公司已經制定了一段時間的人工智能治理戰略。
LeFebvre表示:“作為旅行者管理框架不斷發展和成熟的一部分,我們還建立了一個負責任的人工智能框架,該框架規定了指導我們開發和使用人工智能、高級分析和建模的基本原則。這一框架的目標是幫助確保我們以負責任和道德的方式行事,與我們業務和文化核心的負責任的商業價值觀保持一致。”
觀察人士指出,人工智能治理不僅要保護企業免受數據泄露或知識產權盜竊,還要使成本與預算保持一致。
GAIInsights首席執行官兼首席分析師PaulBaier表示,“IT領導者應該非常務實、謹慎而緩慢地推出新一代人工智能應用,因為高管和IT部門仍在學習如何管理概率企業應用的風險,而且隨著使用的增加,實際成本也會上升。”
Baier說,“另一個增加人工智能風險和成本的因素是大多數組織中大量的‘影子IT’,因為員工使用個人賬戶使用ChatGPT等工具來處理公司數據。”
根據Gartner的說法,組織可以通過實施人工智能治理平臺來處理人工智能的使用,該技術被確定為2025年的第二大戰略趨勢,預測到2028年,實施人工智能治理平臺的組織將比沒有此類系統的組織少經歷40%的人工智能相關道德事件。
Gartner聲稱,“人工智能治理平臺的好處包括創建、管理和執行確保負責任地使用人工智能的政策,解釋人工智能系統的工作方式,模擬生命周期管理,并提供透明度以建立信任和問責制。”
將面臨什么樣的挑戰?Gartner表示:“人工智能指導方針因地區和行業而異,因此很難建立一致的做法。”
未來的挑戰
觀察人士表示,首席信息官還需要調整能夠適應未來變化的人工智能治理框架,特別是在人工智能(ACI)出現的情況下。
孟菲斯浸信會紀念醫療保健公司首席信息官TomBarnett表示:“我們正在評估哪種人工智能使用政策最適合我們目前的需求,這種模式可以在我們前進和學習未知知識的過程中提供靈活性。”
這將導致一個巨大的未知,特別是考慮到人工智能在過去兩年的進展。使問題復雜化的不僅是正在出現的人工智能法規的復雜拼湊,還有商業模式和市場本身的變化。
當ChatGPT在兩年前首次亮相時,OpenAI的創始人表示,對生成式人工智能的適當管理是該公司成為非營利組織的一個關鍵原因。從那以后,除了兩位創始人外,所有創始人都離開了,OpenAI正在努力將其核心業務重組為一家營利性公司,不再受非營利性董事會的控制。
Gartner負責云、邊緣和人工智能基礎設施技術和服務的副總裁SidNag表示,自2021年以來,NIST的人工智能安全研究所聯盟和負責任的人工智能中心在人工智能治理方面取得了進展,但沒有批準的監管標準來指導首席信息官,他們面臨越來越大的壓力,要從實驗中退出,并從對生成式人工智能平臺和工具的重大投資中賺錢。
他強調,沒有一個單一的文件能夠涵蓋所有方面的風險,也沒有明確的權力來強制使用生成式人工智能,而人工智能每天都在進步。他表示:“人工智能就像一列失控的火車,每個人都在試圖從中賺錢。”
盡管如此,很難找到一位首席信息官或高管對人工智能治理不屑一顧。大大小小的企業都很清楚,生成式人工智能如果落入壞人之手,可能會帶來災難。
醫療設備租賃公司USMed-Equip的首席信息官Antonio Marin表示,人工智能使他的公司得以快速增長,但在治理方面,所有人都在全力以赴。
Marin表示:“我們正在將人工智能治理作為數據和網絡安全治理的一部分。當POC從沙箱投入生產時,風險會飆升。在某些情況下,我們的高管層將人工智能視為一些流程問題的解決方案。他們將人工智能視為獲得市場份額或降低運營成本的機會,同時保持高客戶體驗質量和卓越運營。”
TruStone的Jeter預計,監管將在適當的時候成為法律和監管要求。Jeter說:“我把審查員和內部/外部審計員視為合作伙伴,我們的價值觀是一致的。因此,我沒有任何擔憂。”