負責任的人工智能是技術問題還是商業問題?
人工智能(尤其是ChatGPT)已經在世界范圍內得到應用。人工智能被誤用或濫用的可能性也很大,這是一種必須嚴肅對待的風險。然而,人工智能也為社會和個人帶來了一系列潛在的好處。
多虧了ChatGPT,人工智能成為了一個熱門話題。人們和組織已經開始地考慮它的無數用例,但也有一種潛在的風險和限制的擔憂。隨著人工智能的快速實施,負責任的人工智能(RAI)已經走到了最前沿,許多公司都在質疑這是一項技術還是一個商業問題。
根據麻省理工學院斯隆管理學院于2022年9月發布的白皮書,世界正處于人工智能失敗開始成倍增加的時期,第一批與人工智能相關的法規即將上線。該報告打開了一個新的窗口,盡管這兩種發展為實施負責任的人工智能項目提供了緊迫性,但人們已經看到,在負責任的人工智能方面領先的公司主要不是由法規或其他運營問題驅動的。與其相反,他們的研究建議領導者從戰略角度看待負責任的人工智能,強調他們組織的外部利益相關者、更廣泛的長期目標和價值觀、領導優先事項和社會責任。
這與負責任的人工智能既是技術問題也是商業問題的觀點是一致的。顯然,潛在的問題體現在人工智能技術內部,所以這是前沿和中心。但現實情況是,對于人工智能來說,什么是可接受的,什么是不可接受的,標準并不明確。
例如,人們都認同人工智能需要“公平”,但我們應該使用誰的“公平”定義呢?這是一個公司對企業的決定,當你進入細節時,很難做出決定。
“技術和業務問題”方法是一個重要的方法,因為大多數人只評估技術方面。從業務和技術角度評估和完全自動化負責任的人工智能有助于彌合兩者之間的差距。對于受到嚴格監管的行業來說尤其如此。上周剛剛公布的NIST人工智能框架提供了有用的指導方針,幫助組織評估和解決他們對負責任的人工智能的需求。
什么是負責任的人工智能?
人工智能可以區分和制造偏見。人工智能模型可以根據包含固有偏見的數據進行訓練,并可以使社會中現有的偏見永久化。例如,如果計算機視覺系統主要是使用白人的圖像進行訓練,那么它在識別其他種族的人時可能不太準確。同樣,在招聘過程中使用的人工智能算法也可能存在偏見,因為它們是在過去招聘的簡歷數據集上進行訓練的,這些數據集可能在性別或種族方面存在偏見。
負責任的人工智能是一種人工智能(AI)方法,旨在確保人工智能系統在道德和負責任的情況下使用。這種方法基于這樣一種理念,即人工智能應該用于造福人類和社會,并且必須考慮到道德、法律和監管方面的考慮。負責任的人工智能涉及使用透明度、問責制、公平和安全措施,以確保負責任地使用人工智能系統。這些措施可以包括使用人工智能審計和監測,制定道德行為守則,使用數據隱私和安全措施,以及采取措施確保以符合人權的方式使用人工智能。
哪里最需要負責任的人工智能?
人工智能的早期采用者是銀行/金融、保險、醫療保健和其他受到嚴格監管的行業,包括電信和面向消費者的重度行業(零售、酒店/旅游等)。可以按行業細分:
?銀行/金融:人工智能可用于處理大量客戶數據,以更好地了解客戶的需求和偏好,然后用于改善客戶體驗,提供更量身定制的服務。人工智能還可用于識別欺詐和可疑活動,自動化流程,并提供更準確和及時的財務建議。
?保險:人工智能可用于更好地了解客戶數據和行為,以提供更個性化的保險覆蓋范圍和定價。人工智能還可以用于自動化索賠流程和簡化客戶服務操作。
?醫療保健:人工智能可用于識別醫療數據中的模式,并可用于診斷疾病、預測健康結果,并提供個性化治療計劃。人工智能還可用于自動化管理和操作任務,如患者調度和保險處理。
?電信:人工智能可以通過分析客戶數據和了解客戶需求和偏好來提供更好的客戶服務。人工智能還可以用于自動化客戶服務流程,例如故障排除和計費。
?零售:人工智能可以通過分析客戶數據和了解客戶需求和偏好來個性化客戶體驗。人工智能還可以用于自動化庫存管理和客戶服務操作。
?酒店/旅游:人工智能可用于自動化客戶服務流程,如在線預訂和客戶服務。人工智能還可以用來分析客戶數據,并提供個性化的建議。
如何監管負責任的人工智能?
政府對人工智能的監管是政府為確保人工智能(AI)的開發和使用是安全、道德和合法而實施的一套規則和條例。不同國家的規定各不相同,但它們通常涉及為人工智能系統造成的任何傷害設定道德、安全、保障和法律責任標準。政府監管機構也可能要求開發人員接受安全和安保協議方面的培訓,并確保其產品在設計時考慮到最佳實踐。此外,政府可能會為公司提供激勵措施,以創建對社會有益的人工智能系統,例如那些有助于應對氣候變化的系統。
通過將安全法規框架納入其負責任的人工智能計劃,公司可以確保其人工智能系統滿足必要的標準和法規,同時降低數據泄露和其他安全問題的風險。這是通往負責任的人工智能之旅的重要一步,因為它有助于確保組織能夠以負責任和安全的方式管理其人工智能系統。此外,安全法規框架還可以作為指南,幫助組織識別和實施使用機器學習和深度學習等人工智能技術的最佳實踐。總之,負責任的人工智能既是一個技術問題,也是一個商業問題。
安全法規框架可以幫助組織評估和解決他們對負責任的人工智能的需求,同時提供一套標準、指導方針和最佳實踐,以幫助確保他們的人工智能系統是安全和合規的。安全法規框架的早期采用者包括嚴格監管的行業和那些嚴重面向消費者的行業。
一個平凡的新世界?
人工智能仍然是一項相對較新的技術,目前大多數用例都集中在更實際的應用上,比如預測分析、自然語言處理和機器學習。雖然“美麗新世界”的場景當然是可能的,但目前許多人工智能驅動的應用程序都是為了改進現有的系統和流程,而不是破壞它們。
負責任的人工智能既是一個技術問題,也是一個商業問題。隨著技術的進步,企業必須考慮在運營中使用人工智能和其他自動化系統的道德影響。他們必須考慮這些技術將如何影響他們的客戶和員工,以及他們如何負責任地使用它們來保護數據和隱私。此外,在使用人工智能和其他自動化系統時,企業必須確保遵守適用的法律法規,并意識到使用此類技術的潛在風險。
負責任人工智能的未來是光明的。隨著技術的不斷發展,企業開始意識到道德人工智能的重要性,并將其納入運營。對于企業來說,負責任的人工智能正變得越來越重要,以確保他們做出的決策是道德和公平的。人工智能可以用來創造透明和可解釋的產品,同時還可以考慮決策對人類和倫理的影響。此外,負責任的人工智能可以用于自動化流程,幫助企業更快、更低風險、更高準確性地做出決策。隨著技術的不斷進步,企業將越來越依賴負責任的人工智能來做出決策,并創造出安全、可靠、對客戶和世界有益的產品。
人工智能(AI)的潛在誤用或濫用帶來了必須嚴肅對待的風險。然而,人工智能也為社會和個人帶來了一系列潛在的好處,重要的是要記住,人工智能的危險程度取決于使用它的人的意圖。