推動或暫停人工智能:CIO為前進道路提供建議
隨著人工智能的炒作和發(fā)展如火如荼,IT領導者發(fā)現(xiàn)自己在企業(yè)中使用人工智能方面處于一個微妙的轉折點。
在埃隆·馬斯克和人工智能技術先驅Geoffrey Hinton發(fā)出嚴厲警告之后,IT領導者們開始向全球的機構、咨詢公司和律師尋求有關未來道路的建議。Hinton最近從谷歌公司離職,他闡述了人工智能帶來的風險,并呼吁暫停此類人工智能的開發(fā)。
美國出版界巨頭赫斯特集團(Hearst)高級副總裁兼CIO Atti Riazi表示:“最近,埃隆?馬斯克等科技公司的CEO對人工智能潛在危險的警告表明,我們在減輕技術創(chuàng)新帶來的后果方面做得還不夠。作為創(chuàng)新者,我們需要負責任地進行創(chuàng)新,并理解技術對人類生活、社會和文化的影響?!?/p>
這種觀點得到了許多IT領導者的認同,他們認為,在自由市場的社會中,創(chuàng)新是不可避免的,應該得到鼓勵,尤其是在這個數(shù)字化轉型的時代,但前提是要有正確的規(guī)則和法規(guī),以防止出現(xiàn)業(yè)務災難或更糟的情況發(fā)生。
Regeneron Pharmaceuticals公司的CIO Bob McCowan表示:“我對他們的說法表示認同,對于某些行業(yè)或某些高風險用例來說,暫停使用可能是合適的,但在許多其他情況下,我們應該繼續(xù)推進,快速探索這些工具提供的機會。
許多董事會成員都在質(zhì)疑,這些技術是否應該被采用,還是會帶來太多風險?我認為兩者兼而有之。忽視它或關閉它,雖然可能錯過重要的機會,但在沒有適當控制的情況下讓員工自由訪問也可能使企業(yè)面臨風險?!?/p>
雖然人工智能工具已經(jīng)使用多年,但最近面向大眾發(fā)布的ChatGPT卻引發(fā)了相當多的爭議,讓許多企業(yè)CIO和他們的董事會對如何決定而猶豫不決。一些企業(yè)的CIO正在非常認真地對待行業(yè)和人類的風險。
美國金融業(yè)監(jiān)管局的CIO Steve Randich表示:“我每天都在擔心這一點?!泵绹鹑跇I(yè)監(jiān)管局是對美國證券交易委員會負責的重要監(jiān)管機構。
Randich指出,他最近看到的一張圖表表明,人工智能程序的“心智”能力剛剛超過了一只老鼠,并將在10年內(nèi)超過人類的能力。他說:“考慮到我的擔憂,特別是如果人工智能程序可能受到不良行為者的影響,并能夠進行黑客攻擊,例如獲取核武器密碼?!?/p>
麻省理工學院斯隆管理學院高級講師George Westerman表示,全球各地的一些企業(yè)高管都在向麻省理工學院斯隆管理學院和其他機構尋求有關使用生成式人工智能的倫理、風險和潛在責任的建議。不過,他認為,大多數(shù)CIO已經(jīng)與他們的高管和董事會進行了探討,而生成式人工智能本身并沒有強加給企業(yè)及其高管不遵守的新法律責任。
Westerman在談到CIO對人工智能影響個人的法律風險時表示:“我認為,就像所有其他公司的高管一樣,人們的工作也會有法律保障?!彼赋?,不恰當?shù)乩眠@項技術謀取個人利益是例外。
追逐生成式人工智能的發(fā)展
與此同時,ChatGPT的發(fā)布擾亂了監(jiān)管機構的監(jiān)管工作。歐盟原本計劃在上個月頒布人工智能法案,但在ChatGPT發(fā)布之后選擇延遲推出,因為許多人擔心這些政策在生效之前就已經(jīng)過時了。在歐盟委員會及其相關管理機構努力理清生成式人工智能的影響之際,歐洲和美國的企業(yè)高管正在認真對待這些警告。
英國電網(wǎng)運營商National Grid公司首席信息和數(shù)字官Adriana Karabutis表示:“隨著人工智能成為我們工作的關鍵部分,狹義的人工智能變成了通用的人工智能,那么誰來承擔責任?技術負責人?無生命的機器模型?批準/改變訓練模型的人類干預者?人工智能技術發(fā)展迅速,但圍繞它的控制和道德卻沒有?!痹摴究偛吭O在英國,但也在美國東北部開展業(yè)務。
Karabutis說,“這是一場追逐游戲。為此目的,同時,在企業(yè)中管理人工智能的責任在于監(jiān)督企業(yè)和組織風險的首席技術官。鑒于人工智能的興起,首席技術官/首席執(zhí)行官/首席數(shù)據(jù)官/首席信息安全官不再是信息風險的所有者。IT部門依賴于首席執(zhí)行官和所有高管的努力,這意味著必須擁有企業(yè)文化和對人工智能巨大利益以及風險的認識。”
總部位于斯德哥爾摩的愛立信公司的副總裁兼企業(yè)自動化和人工智能主管Rickard Wieselfors表示,愛立信公司看到了生成式人工智能的巨大優(yōu)勢,并正在投資創(chuàng)建多種生成式人工智能模型,包括大型語言模型。
他表示:“人工智能行業(yè)存在一種健全的自我批評機制,我們非常認真地對待負責任的人工智能。在訓練中使用的文本或源代碼的知識產(chǎn)權方面,有許多問題沒有答案。此外,查詢模型時的數(shù)據(jù)泄漏、偏差、事實錯誤、缺乏完整性、粒度或缺乏模型準確性當然會限制用戶使用模型的目的?!?/p>
Wieselfors補充說:“能力越大,責任越大,我們支持并參與當前的自我批評精神,以及對人工智能可能給世界帶來什么的哲學思考?!?/p>
Choice Hotels公司的CIO Brian Kirkland等一些CIO正在監(jiān)控這項技術,他們認為生成式人工智能還沒有完全做好商業(yè)用途的準備。
Kirkland說,“我認為,對于各行業(yè)的企業(yè)來說,確保他們意識到使用生成式人工智能技術(例如ChatGPT)的風險、回報和影響是很重要的。數(shù)據(jù)所有權和生成的內(nèi)容存在風險,必須理解和管理,以避免對企業(yè)產(chǎn)生負面影響。與此同時,還有很多上行空間和機會值得考慮。當能夠安全地將私有數(shù)據(jù)集與這些系統(tǒng)中的公共數(shù)據(jù)合并時,其好處將是顯著的。從生成的人工智能內(nèi)容到復雜而有意義的業(yè)務分析和決策,人工智能和機器學習如何實現(xiàn)商業(yè)價值將發(fā)生巨大變化?!?/p>
調(diào)研機構Gartner公司最近對2500多名高管進行的一項調(diào)查表明,45%的高管表示,對ChatGPT的關注促使他們增加了對人工智能的投資。70%以上的受訪者表示,他們的企業(yè)目前正在探索生成式人工智能,19%的企業(yè)正在進行試點或生產(chǎn)應用,聯(lián)合利華和CarMax等公司的項目已經(jīng)顯示出發(fā)展前景。
即將在5月15日舉辦的麻省理工學院斯隆管理學院CIO會議上,曾長期擔任IBM研究員、現(xiàn)任麻省理工學院斯隆管理學院研究員的Irving Wladawsky-Berger將主持一個小組討論,將探討進入生成式人工智能領域的潛在風險和回報。最近,他還主持了一場關于這項技術的會前討論。
Wladawsky-Berger說,“如今,我們都對生成式人工智能感到興奮?!彼昧巳斯ぶ悄茉诨蚪M學方面的重大進展。
但他指出,對那些采用這項技術的人員進行盡職調(diào)查并不是一項簡單的任務。他說,“這需要做很多工作,我們必須弄清楚哪些是有效的,哪些是安全的,以及應該進行哪些試驗。這些需要花費一些時間?!?/p>
該小組的另一位CIO、Zoetis公司的首席數(shù)字和技術官Wafaa Mamilli表示,生成式人工智能正在增強制藥公司治療慢性人類疾病的信心。
她說:“由于生成式人工智能技術和基因研究計算能力的進步,現(xiàn)在在美國和美國以外的國家、日本和歐洲都有針對治療糖尿病的試驗?!?/p>
護欄和指南是生成式人工智能的基本要素
華爾街已經(jīng)注意到該行業(yè)對生成式人工智能的迅速接受。根據(jù)IDC公司的數(shù)據(jù),2022年是對生成式人工智能初創(chuàng)公司投資創(chuàng)紀錄的一年,股權融資超過26億美元。
IDC公司最近關于生成式人工智能的幾份報告中的一份報告稱:“無論是使用Jasper.ai創(chuàng)建內(nèi)容,使用Midtravel創(chuàng)建圖像,還是使用Azure OpenAI服務進行文本處理,都有一個生成式人工智能基礎模型來促進業(yè)務的各個方面?!?/p>
Regeneron公司的McCowan指出,CIO們已經(jīng)有辦法設置護欄,安全地推進生成式人工智能試點。
McCowan說:“至關重要的是,企業(yè)要有政策和指導方針來管理那些計劃使用這些技術的人員的訪問和行為,提醒員工保護知識產(chǎn)權或個人可識別信息,并重申共享的內(nèi)容可能會公開。讓創(chuàng)新者和律師一起找到一個基于風險的使用這些工具的模型,并清楚可能會泄露哪些數(shù)據(jù),以及對這些解決方案的輸出有什么權利。在開始時使用風險較小的用例技術,并從每次迭代中學習。”
研究機構Forrester Research公司的分析師David Truog指出,在企業(yè)開始試點并在生產(chǎn)中使用生成式人工智能之前,人工智能領導者給生成式人工智能貼上警告標簽是正確的,他也相信這是可以做到的。
Truog說:“我不認為停止或暫停人工智能是正確的做法。更務實、更有建設性的方法是明智地選擇專門的人工智能可以提供幫助的用例,嵌入深思熟慮的護欄,并有意識地采取空氣間隙策略。這將是一個起點。”
一家咨詢公司的DevOps IT主管指出了CIO在使用生成式人工智能時降低風險的幾種方法,包括像風險投資家一樣思考;清楚地理解技術的價值;在測試之前確定倫理和法律考慮因素;嘗試但不要急于投資;并從客戶的角度考慮其影響。
總部位于明尼阿波利斯的Perforce公司的首席技術官Rod Cope表示:“明智的CIO將組建監(jiān)督委員會,或與外部顧問合作,外部顧問可以指導企業(yè)實施,并幫助制定指導方針,以促進負責任的使用。雖然投資人工智能可以為企業(yè)提供巨大的價值,但將其應用到其技術堆棧中需要深思熟慮,以保護企業(yè)、員工和客戶。”
雖然生成式人工智能的興起肯定會影響人們的工作,但管理服務提供商MetTel公司的首席技術官Ed Fox等一些IT領導者認為,這種影響可能被夸大了,盡管每個人都可能不得不適應,否則就會落后。
Fox表示:“在人工智能的應用過程中,一些人會失業(yè),但不會達到一些人想像的嚴重程度。我們這些不接受實時百科全書的人員將被淘汰的事實。”
盡管如此,如果有一個主題是肯定的,那就是對大多數(shù)CIO來說,謹慎行事是最好的前進道路。
Wipro’s Google Business集團的總經(jīng)理Tom Richer表示,CIO們必須在扼殺創(chuàng)新的嚴格法規(guī)和確保負責任地開發(fā)和使用人工智能的指導方針之間取得平衡。他指出,他正在與康奈爾大學及其人工智能計劃團隊合作,謹慎行事。
Richer說:“對于CIO和IT高管來說,意識到生成式人工智能的潛在風險和好處,并與該領域的專家合作,制定負責任的使用策略,這一點至關重要。這種合作需要大學、大型科技公司、智庫和政府研究中心的參與,以制定開發(fā)和部署人工智能技術的最佳實踐和指導方針?!?/p>