推動還是暫停: CIO們就人工智能最理想的發展路徑各抒己見
隨著人工智能的炒作周期和隨后的反彈全面展開,IT 領導者發現自己在企業中使用人工智能方面處于一個微妙的轉折點。
在 Elon Musk 和備受尊敬的人工智能先驅 Geoffrey Hinton 發出嚴厲警告后,IT 領導人正在向全球各地的機構、咨詢公司和律師尋求關于未來道路的建議。
Elon Musk 等科技界 CEO 最近關于人工智能潛在危險的警告性言論表明,我們在弱化創新的負面影響方面做得不夠," Atti Riazi 是 Hearst 公司高級副總裁兼 CIO。他說:“作為創新者,我們有義務負責任地進行創新,了解技術對人類生活、社會和文化的影響。”
這一觀點得到了許多IT領導人的贊同。他們認為,盡管在自由市場社會中,創新是不可避免的,特別是在這個數字轉型的時代,更應該得到鼓勵,但只有在正確的規則和條例的保障下,才能防止企業的災難或更糟。
Bob McCowan 是 Regeneron 制藥公司的 CIO。他表示:“我同意暫停可能適合某些行業或某些高風險的使用案例,但在此之外的更多場景里,我們應該向前推進,快速探索這些工具提供的機會。”
McCowan 補充說:“許多董事會成員都在質疑是否應該采用這些技術,或者它們是否會產生太多的風險。我認為這兩者兼而有之。忽視它或關閉它,你將錯過重要的機會,但在沒有控制措施的情況下允許予員工不受限制的訪問,也可能使你的組織面臨風險。”
雖然人工智能工具已經使用多年,但最近向大眾發布的 ChatGPT 激起了相當多的爭議,讓許多 CIO,以及他們的董事會,按下暫停鍵以考慮如何下一步推進。還有一些 CIO 對行業,乃至人類可能因此面臨的風險非常重視。
金融業監管局(FINRA)是一個向美國證券交易委員會報告的重要監管機構,Steve Randich 是該局的CIO。他說:“每一天,我都在擔心這個問題。”Randich 指出,他最近看到的一張圖表指出,人工智能程序的“心理”能力剛剛超過了一只老鼠,而 10 年后將超過全人類的能力。他說:“我的擔憂值得重視,特別是如果人工智能程序可以被不良行為者影響,并且能夠入侵,例如在核密碼方面。”
麻省理工學院 Sloan 管理學院的高級講師 George Westerman 認為,全球企業的高管們正在向麻省理工學院 Sloan 管理學院和其他機構咨詢有關使用生成性人工智能的道德、風險和潛在責任。不過,Westerman 認為,大多數 CIO 已經與他們的高層管理人員和董事會進行了接觸,而且生成性人工智能本身并沒有帶來企業和他們的高管今天尚未遵循的新法律責任。
Westerman 在談到首席信息官在人工智能影響下的個人法律風險時表示:“我希望,就像公司的所有其他高管一樣,你的業務也有法律保障。”但 Westerman 指出,為個人利益不適當地使用該技術是例外。
在生成性人工智能方面迎頭趕上
同時,ChatGPT 的發布也給監管部門的監督工作帶來沖擊。歐盟原本計劃在上個月頒布其人工智能法案,但鑒于許多人擔心政策在生效前就已經過時,所以在 ChatGPT 發布后選擇了延遲發布。而隨著歐盟委員會及其相關管理機構努力理清生成性人工智能的影響,歐洲和美國的公司高管們也正在認真對待這些警鐘。
國家電網公司(National Grid)的集團首席信息和數字官 Adriana Karaboutis 說:“隨著人工智能成為我們的一個關鍵部分,狹義的人工智能變成了一般的人工智能。誰會成為責任人?技術負責人,無生命的機器模型?批準/改變訓練模型的人類干預者?技術正在快速發展,但圍繞它的控制和道德規范卻沒有。這是一場追逐游戲。為此,同時在企業中管理人工智能的是監督企業和組織風險的 CxO。鑒于人工智能的興起,CTO/CTO/CDO/CISO 不再是信息風險的所有者。IT 依靠 CEO 和所有 CxO,這意味著必須擁有企業文化和對人工智能的巨大利益以及風險的認識。”
總部位于斯德哥爾摩的電信公司 Ericsson 的副總裁兼企業自動化和人工智能負責人 Rickard Wieselfors 指出,Ericsson 看到了生成性人工智能的巨大上升空間,并正在投資創建多種生成性人工智能模型,包括大型語言模型。
他說:“人工智能行業內有一種健全的自我批評,我們正在非常認真地對待負責任的人工智能。在訓練中使用的文本或源代碼的知識產權方面,面臨許多沒有答案的問題。此外,在查詢模型、偏見、事實錯誤、缺乏完整性、顆粒度或缺乏模型準確性方面的數據泄漏,肯定會限制你可以使用模型的內容。巨大的能力帶來巨大的責任,我們支持并參與當前的自我批評精神和對人工智能可能給世界帶來的哲學反思。”
一些 CIO,如 Choice 酒店的 Brian Kirkland,正在監測這項技術,但不認為生成性人工智能已經完全準備好用于商業用途。
Kirkland 表示:“我確實認為,對行業來說,重要的是確保他們了解使用生成性人工智能技術的風險、回報和影響,比如 ChatGPT。數據所有權和生成的內容存在風險,必須加以理解和管理,以避免對公司產生負面影響。與此同時,還有很多上升空間和機會需要考慮。當有能力將私人數據集與這些系統中的公共數據安全、可靠地合并時,上升空間將非常大。在人工智能和機器學習如何通過從生成的人工智能內容到復雜而有意義的商業分析和決策來實現商業價值方面,將會發生巨大的變化。”
沒有人建議完全控制這樣一項強大的、有機會改變生活的技術。
在 Gartner 最近對 2500 多名高管的調查中,45%的人表示,圍繞 ChatGPT 的關注使他們增加了對人工智能的投資。超過 70%的人認為他們的企業目前正在探索生成性人工智能,19%的人正在進行試點或生產使用,聯合利華和 CarMax 等公司的項目已經顯示出前景。
在 5 月 15 日開始的麻省理工學院 Sloan CIO 會議上,Irving Wladawsky-Berger 將主持一個關于進入生成性人工智能領域的潛在風險和回報的小組討論。最近,他還剛剛主持了一場關于該技術的會前討論。
這位前 IBM 的長期研究員和目前麻省理工學院斯隆分校的附屬研究員說:“我們今天都對生成性人工智能感到興奮。”他同時引用了由于人工智能而預期的基因組學的重大進展。
但 Wladawsky-Berger 指出,采用該技術的人所需的盡職調查將不是一項簡單的任務。他說:“這需要大量的工作。我們必須弄清楚什么是有效的,什么是安全的,以及要做哪些試驗。這就是最需要時間的部分。”
小組的另一位 CIO,Zoetis 的首席數字和技術官 Wafaa Mamilli 說,生成性人工智能正在給制藥公司增加治愈人類慢性疾病的信心。
她說:“由于生成性人工智能技術和計算能力在遺傳研究上的進步,現在在美國和美國以外的國家、日本和歐洲都有試驗,目標是治愈糖尿病。”
護欄和指南:生成式人工智能的基本要素
華爾街已經注意到了行業對生成性人工智能的迅速擁抱。根據 IDC 的數據,2022 年是對生成性人工智能初創企業投資的破紀錄的一年,股權融資超過 26 億美元。
IDC 最近關于生成性人工智能的幾份報告之中指出,“無論是用 Jasper.ai 創造內容,用 Midjourney 創造圖像,還是用 Azure OpenAI 服務進行文本處理,都有一個生成性人工智能的基礎模型來促進你的業務的各個方面”。
Regeneron 公司的 McCowan 指出,CIO 們已經有設置防護的辦法,以便安全地推進生成性人工智能試點。
McCowan 說:“至關重要的是,你要有政策和準則來管理那些計劃使用這些技術的人的訪問和行為,并提醒你的員工保護知識產權、PII(可識別個人身份的信息),以及重申被分享的東西可能會成為公共信息。”
他說:“讓你的創新者和你的律師一起找到一個基于風險的使用這些工具的模式,并清楚你可能暴露哪些數據,以及你對這些解決方案的輸出有哪些權利。開始使用風險較小的用例的技術,并從每次迭代中學習。開始吧,否則你會失去機會。”
Forrester Research 分析師 David Truog 指出,在企業開始試點并在生產中使用生成性人工智能之前,人工智能領導者給生成性人工智能貼上警示標簽是正確的。但他也有信心能做到這一點。
Truog 說:“我不認為停止或暫停人工智能是正確的方式。更務實和建設性的道路是明智地選擇專門的人工智能可以提供幫助的用例,嵌入深思熟慮的護欄,并刻意做好隔離。這將成為一個起點。”
一家咨詢公司的 DevOps IT 負責人指出,CIO 在使用生成性人工智能時可以通過幾種方式來降低風險,包括像風險投資家那樣思考;清楚地了解技術的價值;在測試之前確定道德和法律方面的考慮;進行實驗,但不急于投資;以及從客戶的角度考慮影響。
Rod Cope 是總部位于明尼阿波利斯的 Perforce 公司 CIO。他說:“聰明的 CIO 會組建監督委員會或與外部顧問合作,他們可以指導組織完成實施工作,并幫助制定指導方針,促進負責任的使用。雖然投資于人工智能為企業提供了巨大的價值,但將其實施到你的技術堆棧中需要深思熟慮,以保護你、你的組織和你的客戶。”
雖然生成性人工智能的興起肯定會影響人類的工作,但一些 IT 領導者,如管理服務提供商 MetTel 的首席技術官 Ed Fox,認為這種影響可能被夸大了,盡管每個人都可能不得不適應或落伍。
Fox 表示:“在這次生成性人工智能的覺醒過程中,一些人將會失去工作,但不會多到某些人預測的程度。”
不過,如果有一個主題是肯定的,那就是對大多數 CIO 來說,謹慎行事是最好的前進道路。參與其中也是如此。
Wipro 谷歌業務集團總經理 Tom Richer 表示,CIO 必須在“扼殺創新的嚴格法規和確保人工智能開發和使用負責任的指導方針之間取得平衡。”他正在與母校 Cornell 大學及其人工智能倡議合作,以便能謹慎應對未來變化。
Richer 表示:“CIO 和 IT 高管必須意識到生成人工智能的潛在風險和好處,并與該領域的專家合作,制定負責任的使用策略。這種合作需要大學、大型科技公司、智庫和政府研究中心參與,為人工智能技術的開發和部署制定最佳實踐和指導方針。”
來源:www.cio.com