九種方法避免成為AI washing的犧牲品
這幾個月來,人工智能一直是為大家津津樂道的流行語。硅谷的初創公司和財富 500 強公司都看到,隨著人工智能步伐的穩步加快,各行業都發生了革命性變化。但是,興奮、進步與 AI washing(夸大人工智能作用的現象)這樣的危險信號,正在以同樣的速度蓬勃發展。盡管事實上,一些企業采用的人工智能微乎其微或根本不存在,但是,由于他們急切地想搭上賺錢的列車,想從炒作中獲利,所以他們夸大了自己的人工智能能力。
與非人工智能初創企業相比,這種營銷策略盡管有問題,但可以幫助他們獲得更大的種子輪、A 輪和 B 輪融資。根據 GlobalData 的數據,僅去年一年,人工智能初創企業就籌集了超過 500 億美元的風險投資資金,鑒于圍繞 ChatGPT 和其他公司的狂熱,今年這個數字預計還會增長。
考慮到涌入這些初創公司的資本,AI washing 現象只會越來越激烈。The US Federal Trade Commission(FTC)充分意識到了這種危險,并警告供應商在宣傳其AI能力時要透明和誠實。
FTC 廣告業務部門的律師 Michael Atleson 在一篇博客文章中寫道:“一些聲稱有人工智能的產品甚至可能根本不具備廣告宣傳中的功能。在某些情況下,無論產品可能造成什么其他傷害,這種夸大宣傳都可能存在。營銷人員知道產品功效上造假或夸夸其談無法證實才是這個行業的生存之道,而這也正是 FTC 執法的原因所在。”
在這種復雜的情況下,要區分合法的人工智能解決方案和營銷噱頭恐怕非常困難。
德勤全球人工智能研究所執行主任 Beena Ammanath 說:“當面臨供應商對其人工智能產品的宣傳時,公司需要采取合理的懷疑態度。就像對待任何事情一樣,如果這聽起來太好了,不可能是真的,那事實可能就是這樣。”
Donald Welch 是紐約大學的 CIO。他表示,如果 CIO 和他們的公司沒有找到正確的答案,他們可能面臨的后果包括項目失敗或延遲、財務損失、法律案件、聲譽風險,以及最終被解雇。“我確實目睹了高管因此被解雇,而且,我甚至沒辦法說這是一個錯誤的決定。”
幸運的是,他們可以使用以下幾種策略來避免錯誤。
人工智能驅動的企業需要熟練的員工
對聲稱使用人工智能的企業進行審查可能是一個漫長而耗時的過程。然而,有一些簡單的方法,比如在 LinkedIn 上搜索,就可以發現對評價這個企業有價值的信息。
Ammanath 說:“審查供應商的員工所擁有的人工智能經驗和教育水平,正在開發人工智能解決方案的公司應該有這方面的人才,這意味著他們必須有數據科學家和數據工程師,而且這些工程師在人工智能、機器學習、算法開發等方面有深厚的經驗。”
除了考察員工之外,首席信息官還可以尋找與外部人工智能專家和研究機構合作的證據。這一類別包括與大學的合作伙伴關系、參與行業會議和活動,以及對開源人工智能倡議的貢獻。如果供應商有類似項目或應用程序的經驗,這也是一個好跡象,因為這表明它可以提供高質量的結果。
"仔細檢查供應商的歷史,"烏克蘭-美國創業公司 MacPaw 的初創公司 MacPaw 的首席技術和創新官、美籍烏克蘭裔 Vira Tkachenko 表示:“仔細檢查供應商的歷史背景。如果一家公司是人工智能專家,那么它歷史上很可能有發表該領域或其他人工智能產品的研究論文。”
尋找一個精心設計的數據戰略
真正將人工智能融入其產品的公司還需要一個精心設計的數據戰略,因為人工智能算法需要它。他們需要與高質量的數據一起工作,數據越慷慨和相關,結果就越理想。
Ammanath 說:“人工智能系統是由大量數據推動的,所以這些公司也應該有一個精心構建的數據戰略,并能夠解釋收集了多少數據以及來自哪些來源。”
另一個需要關注的問題是,這些公司是否在遵守監管要求方面投入了足夠的精力,并保持較高的數據隱私和安全標準。隨著《通用數據保護條例》(EU GDPR)和《加州消費者隱私法》(CCPA)等數據隱私法規的興起,組織必須對其數據做法保持透明,并為個人提供對其個人數據的控制權。如果事實不是這樣,那就是一個危險信號。
要求提供證據來支持其主張
雖然之宣傳口號可能很誘人,但平靜地要求提供證據會有幫助。Ammanath 說:“提出正確的問題并要求提供產品功能的證據,對于剝離營銷和銷售的說辭以確定產品是否真正由人工智能驅動是至關重要的。”
需要評估一個看似由人工智能驅動的特定產品或服務時,CIO 可以詢問模型是如何訓練的,使用了什么算法,以及人工智能系統將如何適應新數據。
Tkachenko 說:“你應該問供應商他們使用什么庫或AI模型。他們可能只是簡單調用了 OpenAI API 實現自己的功能。”
管理和技術咨詢公司 BearingPoint 的合伙人和全球技術領導人 Matthias Roeser 對此也表示同意。他補充說,應該徹底理解組成部分和框架,評估應該包括“道德、偏見、可行性、知識產權和可持續性。”
這項調查可以幫助 CIO 更充分地了解該產品的真正功能和局限性,從而幫助他們決定是否購買該產品。
關注創業公司
初創企業將自己定位在創新的最前沿。然而,盡管他們中的許多人突破了人工智能領域的極限,但有些人可能只是夸大自己的能力來獲得關注和金錢。
烏克蘭裔美國創業公司 Claid.ai 的聯合創始人兼首席技術官 Vlad Pranskevi?ius by Let's Enhance 說道:“作為一家機器學習公司的 CTO,我經常遇到 AI washing 的案例,特別是在創業社區。”而且,他注意到,最近這種情況變得更加嚴重。他補充說,在像目前這樣的炒作周期中,這種現象尤其危險,因為人工智能被視為一場新的淘金熱。
不過,Pranskevi?ius 認為,在不久的將來,隨著圍繞人工智能的法規變得更加嚴格,AI washing 將受到控制。
建立技術專業的聲譽
一家公司收購可疑的人工智能解決方案并不罕見,在這種情況下,CIO 不一定有錯。這可能是 “公司領導不力的結果”, Welch 說:“企業上了營銷炒作的當,凌駕于 IT 團隊之上,而 IT 團隊卻只能收拾殘局。”
為了防止類似這樣的時刻,企業需要培養一種合作文化,在這種文化中,技術專家的意見得到重視,他們的觀點得到充分曝光。
同時,CIO 和技術團隊應該在公司內部建立自己的聲譽,以便他們的意見更容易被納入決策過程。為了實現這一目標,他們應該展示專業知識、專業精神和軟技能。
Sigma 軟件集團的首席創新官 Max Kovtun 表示:“我覺得身 CIO 審查 AI washing 并不困難。更大的問題可能是商業利益相關者或企業家推動以任何形式使用人工智能,因為他們希望看起來具有創新性和前沿性。因此,正確的問題是如何避免在創業的壓力下自己投身于 AI washing。”
超越流行語
在比較產品和服務時,必須以開放的心態評估它們,徹底看清它們的屬性。
Tkachenko 說:“如果一個產品或服務對你來說唯一的優勢是人工智能,你應該在采購前再仔細斟酌。最好是研究它的價值主張和功能,只有當你了解該項目在人工智能之外的優勢時才開始合作。”
Welch 也表示贊同并反問道:“我會因為他們用 C、C++ 或 Java 編寫的系統而購買它嗎?作為我盡職調查的一部分,我可能想了解他們是否能夠維護代碼、公司生存能力等。”
做一個徹底的評估可能有助于企業確定他們計劃購買的產品或服務是否與他們的目標一致,是否有可能提供預期的結果。
Kovtun 說:“技術越復雜,非專業人員就越難理解它,越難驗證該技術的應用是正確的、有意義的如果你已經決定為你的公司利用人工智能技術,你最好聘請在人工智能領域有經驗的知識淵博的專家。否則,你的努力可能不會帶來你期望得到的好處。”
關注人工智能相關新聞
及時了解人工智能相關產品和圍繞它們的問題,也可以幫助 CIO 做出明智的決定。這樣一來,他們就可以發現自己可能犯的錯誤的同時還可以利用新的想法和技術。
Art Thompson 是底特律市的 CIO。他表示:“我認為現在的教育還不夠。”他建議 CIO 們做足夠的研究,以避免落入新技術或實驗性技術的陷阱,因為這些技術的承諾超過了它所能提供的。如果發生這種情況,“重新定價和更換產品的時間真的會傷害員工,使他們無法支持任何改變,”他說。“更不用說人們投入時間學習新技術的困難了。”
此外,了解最新的人工智能相關事項可以幫助 CIO 預測監管變化和新興的行業標準,這可以幫助他們合規并保持競爭優勢。
而且,需要保持最新狀態的不僅僅是 CIO。BearingPoint 公司的 Roeser 表示:“教育你的團隊或聘請專家來為你的投資組合增加相關的能力。”
圍繞人工智能的額外監管行動
即將出臺的新法規可以簡化 CIO 的任務,以確定產品或服務是否采用了真正的人工智能技術。美國白宮最近發布了一項人工智能權利法案,其中包括負責任地設計人工智能系統的指導方針。而在未來幾年,可能會有更多的法規出臺。
Ammanath 說:“這些行動背后的前提是保護消費者權益和人類免受技術的潛在傷害。我們需要預測技術的潛在負面影響,以減輕風險。”
道德不應只是事后才考慮
企業往往會影響對新技術的討論,強調潛在的好處,而往往淡化潛在的負面影響。
瑞士圣加侖大學的博士后研究員 Philip Di Salvo 說:“當一項技術成為流行語時,我們往往會失去對它在社會中可能產生的潛在有害影響的關注。研究表明,企業正在推動圍繞人工智能的話語,技術決定論仍然占主導地位。”
這種認為技術是社會和文化變革背后的主要驅動力的信念,可能會掩蓋圍繞倫理和政治影響的討論,而傾向于更加以營銷為導向的論點。正如 Di Salvo 所說,這創造了“一種論證的迷霧,使這些技術和它們的生產者更加模糊和不負責任”。
為了解決這個問題,他指出一個關鍵的挑戰,即向公眾傳達人工智能實際上不是什么,以及它不能做什么。
Di Salvo 說:“我們今天看到的,包括 ChatGPT 在內的,大多數人工智能應用,基本上都是圍繞規模化的統計和數據分析應用而構建的。這聽起來可能是一個無聊的定義,但它有助于避免對‘人工智能’定義中‘智能’所指的任何誤解。我們需要關注真實的問題,如偏見、社會排序和其他問題,而不是假設的、推測性的長期假設。”
來源:www.cio.com