人工智能的潛力巨大但也面臨巨大的責(zé)任
人工智能無(wú)處不在,潛力令人難以置信,但正如俗話所說(shuō),強(qiáng)大的力量帶來(lái)巨大的責(zé)任。不幸的是,像優(yōu)步的“上帝”模式及其現(xiàn)在被認(rèn)為是歧視性的算法,都已經(jīng)成為不該做什么的例子。
在所有行業(yè)中,組織越來(lái)越多地轉(zhuǎn)向人工智能來(lái)克服業(yè)務(wù)挑戰(zhàn)并推動(dòng)其業(yè)務(wù)向前發(fā)展,但我們?nèi)绾未_保自己不會(huì)成為下一個(gè)以錯(cuò)誤理由搶占這些頭條新聞的人?障礙和特定的陷阱在哪里?組織如何才能更好地尋找正確的方法?問(wèn)題不在于人工智能本身,而在于它是如何開發(fā)和使用的。
講道德
首先,組織需要理解為什么道德人工智能是重要的——不僅僅是不接受壞消息。
人工智能的一個(gè)巨大好處是,它被用來(lái)在規(guī)模上產(chǎn)生影響,但這意味著它的錯(cuò)誤或正確也將產(chǎn)生廣泛的后果。回到前面提到的Deliveroo和Uber的例子,這些算法最終影響了許多工作和人們。重要的是不要忘記人工智能對(duì)人類的影響。
將道德觀念融入人工智能實(shí)際上是防止偏見和其他風(fēng)險(xiǎn)的最佳方法。如果繼續(xù)使用同樣的傳統(tǒng)方法和程序,同樣的問(wèn)題將繼續(xù)出現(xiàn),歧視(盡管是無(wú)意識(shí)的)肯定也將繼續(xù)存在。有了精心開發(fā)的人工智能,就有可能消除人類的偏見,但前提是人工智能是合乎道德的。這不僅僅是一個(gè)理論上的陳述或研究(這不會(huì)讓我誤解,也是非常重要的),而是一個(gè)以正確的方式進(jìn)行日常業(yè)務(wù)的工具,對(duì)于組織,對(duì)于他們的客戶和用戶。就這么簡(jiǎn)單。
找出痛點(diǎn)
道德人工智能最初最大的問(wèn)題之一是,什么是“道德的”這個(gè)概念是模糊的,可以解釋。在組織希望創(chuàng)建道德人工智能之前,他們對(duì)道德的理解需要被明確定義,以確保每個(gè)人都站在同一個(gè)角度。每個(gè)人都需要確定他們?yōu)槭裁匆_發(fā)人工智能技術(shù)及其預(yù)期用途。清楚地概述和說(shuō)明為什么以及如何使用人工智能技術(shù),并制定規(guī)則,也有助于防止可能的濫用,就像優(yōu)步的案例一樣。
將這些道德觀念轉(zhuǎn)化為人工智能的實(shí)際應(yīng)用是企業(yè)面臨的下一個(gè)重大挑戰(zhàn)。在這里,當(dāng)企業(yè)開始創(chuàng)建和開發(fā)一個(gè)算法時(shí),問(wèn)題就開始了:我們?nèi)绾螛?gòu)建一個(gè)算法和我們?nèi)绾问褂盟粯又匾W畛醯臄?shù)據(jù)輸入和隨后形成的計(jì)算模型將決定組織是獲得預(yù)期的結(jié)果,還是產(chǎn)生道德困境。例如,許多算法以前都是基于歷史數(shù)據(jù)設(shè)計(jì)的,但這往往意味著舊的模式可以簡(jiǎn)單地重復(fù)——繼續(xù)存在相同的問(wèn)題,可能存在相同的歧視或偏見。
處理過(guò)去的問(wèn)題
組織需要停止重復(fù)同樣的模式和同樣的問(wèn)題。其中很大一部分歸結(jié)為數(shù)據(jù)。
人工智能形成自己的模式,根據(jù)輸入的數(shù)據(jù)生成執(zhí)行任務(wù)的過(guò)程。因此,一個(gè)算法只能和它的數(shù)據(jù)一樣好。如果數(shù)據(jù)以某種方式扭曲,它將影響最終的輸出,一旦模式建立起來(lái),人工智能將繼續(xù)簡(jiǎn)單地遵循它們。因此,高質(zhì)量的數(shù)據(jù)是最重要的,以及了解這些數(shù)據(jù)從何而來(lái)。組織必須使用當(dāng)前的、干凈的數(shù)據(jù),如果需要,在采取任何步驟之前,必須清理數(shù)據(jù)。最后,該算法基本實(shí)現(xiàn)了隱藏在數(shù)據(jù)中的模式;是數(shù)據(jù)起了很大的作用。
在這個(gè)階段,還需要注意可能的人為錯(cuò)誤的一個(gè)關(guān)鍵因素。雖然數(shù)據(jù)可能已經(jīng)被清理,希望能夠防止可能的偏見或歧視,但那些負(fù)責(zé)輸入數(shù)據(jù)和創(chuàng)建算法的人可能會(huì)無(wú)意識(shí)地投射出他們的偏見或偏見。人工智能的發(fā)展需要以開放的心態(tài)進(jìn)行,沒有偏見,以確保不形成歧視性模式。我們經(jīng)常在工作場(chǎng)合談?wù)摱鄻有院桶菪裕覀冃枰_始思考算法中的多樣性和包容性!
組織和他們的商業(yè)希望和抱負(fù)只會(huì)和他們的人工智能算法一樣好。因此,這些算法必須經(jīng)過(guò)仔細(xì)、深思熟慮的開發(fā),定期測(cè)試,而不是倉(cāng)促使用——我們?nèi)绾问褂盟鼈兒腿绾螛?gòu)建它們一樣重要。對(duì)企業(yè)來(lái)說(shuō)幸運(yùn)的是,創(chuàng)造合乎道德的人工智能得到了越來(lái)越多的外部支持,比如歐盟的人工智能七原則,為數(shù)據(jù)科學(xué)家和人工智能專家提供了一個(gè)框架,使合乎道德的人工智能應(yīng)用程序能夠運(yùn)行。然而,最終,他們的人工智能技術(shù)的成功和影響的責(zé)任,以及它是被贊揚(yáng)的創(chuàng)新還是被譴責(zé)的歧視,在于個(gè)人組織和他們?nèi)绾伍_發(fā)和使用人工智能。