每個IT領導者都必須進行的六次艱難的AI討論
很少有技術像AI那樣引發如此多的討論和辯論,工人、知名高管和世界領導人在對AI的贊揚和擔憂之間搖擺不定。
誠然,CIO沒有被傳喚到國會作證,但他們正在高管套房和董事會會議室接受盤問,因為企業領導人向他們的技術主管提出了各種具有挑戰性的問題,預計CIO將回答這些問題,所以要做好準備。
總部位于洛杉磯的IT咨詢公司AVOA的CIO戰略顧問Tim Crawford表示:“CIO處于這些對話的核心位置,CIO不必知道所有信息,但作為看到整個公司的人,CIO應該能夠帶來洞察力,幫助其他高管將所有信息整合在一起。”
IT領導人表示,他們正在討論從AI實施的成本到AI是否對人類構成生存威脅的方方面面,有些人擔心。雖然他們不能回答后者,但他們必須領導關于前者和其他類似話題的對話。
以下是你應該與你的團隊、業務線領導人、高管同事和董事會進行的核心AI對話。
1、哪些業務案例真正需要AI?
ChatGPT在2022年底推出后引起了相當大的轟動,人們叫囂著要測試這項新技術。此次發布還將AI推到了聚光燈下,并推上了許多企業議程的首位。專業服務公司安永發布的2023年10月CEO展望報告顯示,99%的CEO計劃投資于GenAI。
但這些CEO的投資是正確的嗎?這是許多CIO都在問的問題,因為一些人報告說,每當有AI解決方案的需求時,他們就是提出業務需求和業務價值的人。
阿拉斯加州CIO Bill Smith一直處于這種情況,他讓一名員工宣布需要AI解決方案,但當被問到原因時,這名員工只回答說:“我們只是需要AI。”
我們都在談論AI,圍繞它有很多期望和炒作,但與此同時,圍繞在這些炒作周期中可能發展的用例真的缺乏嚴謹性,因此,人們往往心懷解決方案,而不是要解決的問題,所以我在問,‘你到底想解決什么問題?’因為他們需要的可能不是AI。“Smith說。
Smith說,如今人們傾向于談論AI,而不是首先關注要解決的問題或被抓住的機會,考慮到圍繞GenAI的炒作,這并不令人驚訝,盡管如此,他的目標是通過教育其他人了解AI來使對話更有成效。他和他的團隊已經創建了信息平臺、文檔和演示文稿,描述了各種類型的AI以及如何使用它們,并解釋了AI和機器學習可能如何以及在哪里有用 - 以及為什么這不是他們所有問題的解決方案。
2、哪些創意將真正提供商業價值?
企業對AI的投資正在獲得回報——這是一個巨大的回報。
最近,微軟委托IDC進行了一份名為《AI的商業機會》的報告,對2100名全球商業領袖進行了調查,發現他們看到了350%的回報,每投資1美元AI就能收回3.5美元。此外,公司實現其AI投資回報的平均時間表是在部署后14個月內。
盡管有這些發現,但CIO們表示,他們發現自己在提醒同事和團隊,并不是所有的AI項目都值得追求或立即追求。
軟件制造商Salesforce的CIO Juan Perez表示:“像AI這樣的技術很容易讓人興奮,人們希望實施100種不同的試點和測試,但你必須專注于為公司提供價值的想法。”
“這是CIO們面臨的一個有趣的兩難境地,我們希望確保我們的業務能夠使用新技術,這是我的個人目標,但我也希望確保我所做的事情與業務及其目標保持一致,這樣它才能取得成功。”
為此,Perez像評估其他使用其他不那么被炒作的技術構建的項目一樣評估AI項目,與團隊合作評估用例、治理需求、預期的業務收益和預期的回報。
“你不能在不會帶來價值的項目上沖淡你的努力,” Perez補充道,“因此,選擇那些你可以看到AI可以為公司帶來的價值和偉大目標的幾個關鍵領域,并將賭注放在這些領域,專注于這些領域,從這些領域中學習,并在學習的過程中擴展到其他領域。”
3、在資源有限的情況下,我們可以合理地實現什么目標?
在GenAI突然出現后,跨國制造商Avery Dennison的高級副總裁兼CIO Nicholas Colisto一直在努力讓他的公司接受它的潛力。
“AI已經存在很長一段時間了,”他說,“但當GenAI出現并在2023年初真正爆炸式增長時,許多公司——包括我們的公司——對它說了不。(我們公司的領導人)希望確保有適當的指導方針來保護公司、數據和員工。”
為了克服這些問題,Colisto致力于教育領導者關于AI的能力和風險,試圖讓公司從“不知道”轉變為“不知道”。他的努力得到了回報,自那以后,Avery Dennison進入了GenAI的構思、試點和運行。
盡管如此,他承認,他不得不通過對資源的現實核查來緩和一些前進的勢頭。
Colisto說:“我不得不提醒人們,AI并沒有帶來新的資金。”他補充說,一些人錯誤地認為,該公司長期的融資做法并不適用于與AI相關的舉措。“人們認為AI在公司投資方面是不同的,他們認為企業會有所有的錢用于AI,但我沒有聽到很多公司表示,他們將忽略投資周期,全力以赴使用AI。”
其他CIO表示,他們也在就資金、人才和時間的限制展開對話。
商業轉型服務公司Genpact副總裁兼全球AI/ML服務負責人Sreekanth Menon表示:“人才是目前的一個問題,公司需要一種不同類型的人才來與AI合作,他們需要大量的技能提升,或者他們需要引進新的人才。每個人都在試圖與他們的合作伙伴合作,建立一個(AI人才)生態系統,但這一切都需要時間。”
許多公司都受到人才短缺的影響。微軟/IDC的研究發現,52%的受訪者將缺乏熟練工人列為實施和擴展AI的最大障礙。
CIO還提醒同事,他們的IT團隊還有其他工作要做。“我們有正常的項目周期,我們有一些常規項目正在籌備中。我們不會為了AI放棄一切。“Colisto說。
CIO們表示,他們沒有就這些問題爭論不休,而是將對話帶回了業務優先事項。
Colisto說:“我們要求我們的業務部門確定與戰略目標一致的想法,然后討論這些想法的成本,這些想法的成本效益或創收影響,以及實現這些收益的可行性。有了AI,我們仍然需要業務部門來識別最具價值的項目,我們在所有主要功能上都有數百個用例,我們正在為那些高度優先的用例提供資金。”
4、我們數據運營的當前狀態能否交付我們所尋求的結果?
CIO們不得不向同事們提出的另一個棘手話題是:企業數據質量問題如何阻礙他們的AI雄心。
S&P Global Market Intelligence為數據平臺制造商WEKA進行的一項2023年對1500多名AI從業者和決策者進行的民意調查發現,數據管理是AI和機器學習部署最常被引用的技術抑制因素,同樣,專業服務公司畢馬威發布的2023年美國AI風險調查報告發現,數據完整性是排名第一的三大風險,其次是統計有效性和模型準確性。
數字化轉型解決方案公司UST的首席戰略官兼CIO Krishna Prasad表示:“數據對話是非常真實的,通常是CIO們在說,‘如果你不解決這個問題,你想要的結果就不會發生。’”
Prasad說,他在自己的公司以及該公司的客戶公司都聽到了這種對話。
CIO說,這是一個特別困難的討論,因為他們通常對業務數據的狀態沒有責任,他們所能做的就是分享他們的觀察結果,并幫助制定補救措施。
另一方面,CIO們表示,由于AI,他們呼吁在數據質量方面采取更多行動的呼聲如今正變得更具吸引力。Salesforce的Perez說:“AI正在提升圍繞數據的討論,因為數據現在對企業來說比以往任何時候都更加關鍵。”
5、我們的風險偏好是什么?我們如何應對?
圍繞AI倡議的風險和安全擔憂也主導了CIO與其執行同事和團隊進行的許多對話。
這是有充分理由的:公司已經看到他們的專有和受監管保護的數據被輸入到開放的AI工具中,如ChatGPT,他們看到AI得出了有偏見的答案和徹頭徹尾的捏造結果(稱為AI幻覺)。由于缺乏可解釋性,他們得到了無法認證或驗證的AI輸出。
Crawford說:“有很多例子表明,人們使用這項技術的方式將自己和他們的公司置于危險之中,但他們并沒有意識到自己正在這么做。”
CIO們強調,阻止AI的使用并不是解決辦法。禁止使用它并不能阻止它,因為一些員工可能會繼續試驗它。此外,企業軟件制造商正在將AI融入他們銷售的產品和服務中,因此AI無論如何都會進入企業。此外,由于擔心風險而禁止或限制其使用,與正在推進AI倡議的競爭對手相比,該公司處于不利地位。
Crawford和其他人表示,CIO需要把這些觀點擺到桌面上來。CIO現在還必須關注關于可能的法規的立法討論,并提煉出任何法規將如何影響他們公司的AI議程。
Crawford補充道:“對于CIO來說,這是一場艱難的對話,因為他們鼓勵創新,但同時又要努力保護客戶數據和知識產權,因為如果CIO們說話不謹慎,他們可能會給人一種否定或不支持這項新技術的印象,人們會繞著你工作。”
6、我們的AI戰略如何解決倫理問題?
德克薩斯州信息資源和CIO執行主任Amanda Crawford表示,作為她在州政府內部使用AI技術的對話的一部分,她正在談論AI使用的倫理和可接受的參數。
“我們不想成為先鋒,這不是我們渴望做的事情,因為作為政府有義務和責任,這就產生了其他新興技術,對于像AI這樣具有巨大顛覆性的技術來說,情況無疑是如此。因此,我們在政府中的步伐會慢一點,這會更周到、有目的、更深思熟慮,因為這是必須的,因為我們所做的事情的性質,我們必須保持信任。”
Crawford說,這并不是說德克薩斯州不使用AI。事實上,與許多私人實體一樣,德克薩斯州政府已經在其整個運營過程中部署了聊天機器人、智能自動化和智能系統,并正在研究在哪里可以使用GenAI和其他較新的AI技術。
“但我們正在進行的對話是圍繞道德和隱私挑戰,以及我們在政府中對憲法權利和我們選民的隱私權的義務,我們的決定必須考慮這些因素。” Crawford解釋說。
例如,她說,這些對話可能集中在一些任務是否由于法律、公共政策、最佳實踐或公民期望而必須由人類而不是智能系統來執行。
Crawford說:“我經常看到,作為CIO,我的職責就是問這些問題。”她補充說,她和德克薩斯州的許多其他IT領導人都在尋找“行政和立法層面的領導層,在我們推出這項服務時,回來幫助我們解決問題。”
Crawford和政府實體并不是唯一詢問AI倫理參數的人。
UST的Prasad說,CIO們正在與高管同事討論他們的責任,如果他們的AI系統產生有偏見的結果或幻覺,他們正在討論如何確保他們能夠跟蹤和解釋AI的輸出,以及如果他們做不到該怎么辦。
“AI可以讓你做各種各樣的事情,但問題是你真的想這樣做嗎?這是一個需要與高管團隊甚至董事會進行對話的話題。”