擔心AI統治人類?如何克服人工智能的“瘆人因素”?
本文轉載自公眾號“讀芯術”(ID:AI_Discovery)
人工智能的應用越來越廣泛,在我們日常生活中所發揮的作用也越來越大了。但是也正因為此,一些人對它很難接受,至少在有意識的情況下會望而卻步。你可能喜歡手機自動標記照片,但卻常常忘記這技術源于人工智能的驅動。人們不愿意相信他們不太了解的技術,尤其是當技術聽起來有點毛骨悚然時。
2017年,埃隆·馬斯克在全國州長協會上說道:“我接觸過最前沿的人工智能,我認為人們應該關注這項技術,人工智能是人類文明存在的根本風險。”
人工智能有時比專家更能準確地預測人類的行為。人們不喜歡無法掌控數據收集和使用方式的感覺,尤其當人工智能使用這些數據讓人采取特定行動時。眾所周知,用戶體驗(UX)是創建模型時重要的考量因素,但許多數據科學家并沒有忘記積極的用戶體驗中一個重要部分:最小化人工智能的“瘆人”因素。
“手機正在監視我們”及人工智能的其他陰謀
技術的進步和數據不斷增長的可用性使人工智能變得愈發強大,也更加精確。這對熱愛技術的人來說是值得興奮的,但其可怕之處所在。如今的算法可以用更少的信息(至少是已知提供的信息)預測更多的個人信息,有時候人工智能似乎能讀懂我們的想法——或者至少是在偷聽我們說話。
手機出于營銷目的一直秘密記錄和監視著我們,這是近些年來互聯網上甚囂塵上的頂級陰謀論——甚至一些備受尊重的技術專家和記者也持相同看法。從英國廣播公司BBC、《時尚先生》到《Vox》,關于這一話題的討論處處可見。早在2017年,播客欄目“/reply-all/”就做過一檔關于手機監聽的節目。如今,越來越多的人開始擔心,手機在未獲得廣告定位許可的情況下記錄他們的私人對話。
我們無法準確知道手機記錄了多少音頻,不過多數專家已經確定,大多數應用程序不使用錄音功能用于精準廣告定位。不是因為他們不能,而是因為沒有必要。人工智能追蹤是如此復雜,已經準確到無需考慮音頻采集的技術和存儲的需求。人們不經意間提供了太多關于自己的信息,以至于無論如何我們都有可能成為眾矢之的。
美國東北大學教授、手機隱私安全問題研究員大衛·喬芬斯說:“我們往往以人類看待事物的方式看待監控。如果有人知道你和朋友談論的某件事,這就意味著他們在聽你說話,但我認為,大多數人很難將他們在網上活動中泄露的信息與這些可以向他們投放廣告的公司聯系起來。”
世界各國政府發布的許多新冠病毒追蹤應用程序可能潛藏著新的“陰謀”,人們擔心下載這些應用會讓政府在未來持續隨時隨地追蹤他們。在意大利,由于一些陰謀論和對于隱私和安全的擔憂,“Immuni app”未能獲得過多關注。人們對人工智能時刻監視自己感到不寒而栗,疫情由此引發了人們的更多恐懼。
洞窺全局、無所不知的人工智能也許并非現實的完美復刻,但這并不意味著要對當前的人工智能水平放松警惕。我們擔心的是臉書的數據收集和跟蹤,當生活中最明顯的人工智能案例似乎是通過監視來實現的時候,這種憂慮不難理解。
人工智能可以在不讓人擔憂情況下提供個性化的推薦嗎?
個性化推薦是個好主意,在適宜的時間得到恰當的報價對人們大有裨益,對提出報價的公司也有同樣的幫助。通常,如果人工智能能幫助人們更有效地解決問題,即使是那些聲稱對AI感到擔憂的人也絕不會排斥使用這項技術。
事實上,大多數人工智能不會讓我們害怕。人們并沒有注意到自己每天會大量接觸的人工智能技術,有時是因為它們不夠復雜,不足以困擾人們。你很難找到一個客戶服務聊天機器人,只對更具威脅性而不是刺激性的精確輸入做出反應。其他人工智能完美融入我們曾使用過的功能,以至于我們只注意到那是服務的改進。當蘋果公司發明人臉識別解鎖蘋果手機時,大多數人都為其便利而興奮不已,而不是擔心人工智能的影響。
然而,大多數情況下,沒有注意到人工智能的使用是因為人們只看結果。人們與人工智能本身沒有直接的互動,只注意到它如何讓生活更輕松。例如,很多顧客不會知道他們可以買到合適尺寸的所需商品,是因為Evo Replenish算法使用預測供應鏈防止新款流行襯衫缺貨。顧客無法知道商店如何決定庫存,他們可能也不會在意。
滿滿當當的貨架十分方便,杜絕這一問題的人工智能并不令人毛骨悚然,因為它的預測和建議不是在個人層面上做出的。如果沒有說某個人要買某個特定的產品,只是說那一周會有15個人購買,筆者并不擔心隱私的泄露問題。
人工智能的預測和個性化推薦最令人不安的是,我們不能理解它如何得出關于個人的結論,或者它太像人類卻沒有被披露為人工智能。因此,公開透明且以人為本的設計將會大大降低人工智能帶來的顧慮。
不恐怖的人工智能是透明的
人工智能運作方式越透明,它就越不令人害怕。人們往往會懷疑不理解的東西,當你面對一些不了解的事情,而這些事情卻似乎很了解你,這不僅僅讓人起疑,更令人害怕。如果現在不理解這項技術是如何運作,如何能預見災難?沒有透明度,人工智能更像是一種威脅——這最終讓人工智能變得如此面目可懼。
比如臉書通過手機竊聽的說法。人們之所以這樣懷疑,是因為臉書拒絕透露他們收集了哪些關于人們的信息,以及他們如何利用這些數據來精準投放廣告。
技術記者、“Reply All”的聯合主持人PJ·沃格特說:“臉書制造了這個問題,因為他們非常擅長收集關于我們的信息。他們不會公開收集的內容或方式,因此,這基本上是在迫使人們聯想到一種最簡單粗暴的獲取信息的方式,那就是竊聽。”
透明度還意味著明確數據收集和處理的方式。如果不能解釋需要數據的原因,收集大量關于個人的可識別信息總是讓人毛骨悚然。這就是為什么應該坦率地說明需要特定信息的原因,并盡可能匿名。
這種數據透明度不會傷害人工智能模型。Evo的算法仍在處理超過12億人的數據,以進行供應鏈和定價預測;Evo只是以這樣一種方式收集數據,從數據庫中完全排除任何識別信息。由此產生的人工智能建議不受其影響,但模型變得更加透明。只要從第一天開始就計劃透明公開,就有可能在不損害結果準確性的情況下,誠實地說明使用的是什么數據以及如何獲得這些數據。
以人為本的人工智能設計幫助建立有用的模型,且不會嚇跑用戶
雖然透明度必不可少,但若是人工智能幫助人們獲得理想結果,大多數人還是能接受它有一點點“嚇人”的。調查顯示,如果人工智能在問題出現之前能避免問題、快速解決問題或最大限度地降低復雜性,大約75%的人并不會介意使用侵入式人工智能。
當人工智能帶來的是更多推薦你曾考慮購買的產品推銷廣告,知道被跟蹤也許會讓你心生膽怯,相較之下,警告人們數據泄露的追蹤就不這么使人憂慮。當人工智能解決的問題能幫助人們,而不是幫助公司推銷產品時,人們就會愿意做出妥協。
以谷歌地圖為例,當地圖自動為谷歌日歷中代辦事項規劃導航時,很少有人會對其心有悸然;谷歌擁有的這些信息從何而來,人們了然于胸。當“地圖”開始直接從Gmail中為會議或活動進行規劃建議時,人們開始惶恐不安,因為他們并沒有把它編入日歷。
盡管如此,這個功能還是很有用,很少有人抱怨。只有當地圖開始根據時間和習慣預測用戶目的地時,人們才會真正發作。這種推薦更具侵入性,一方面是因為它讓跟蹤更加直白,但另一方面它并非總是有用。如果不需要這些導航,對于谷歌熟知你的日常行程路線,你并不會心存感激。
這就是為什么正確用人工智能解決問題如此重要。以人為本的人工智能設計優先考慮終端用戶的需求,并確保人工智能不會讓人感覺受到干擾。如果你創建一個算法,可以為每個與人工智能互動的人解決問題,你必然會最小化負面反應。至少,人工智能應該尊重人們對隱私和控制感的需求。把與人工智能互動的人放在第一位,從他們的角度思考。由此產生的以人為本的人工智能就不那么令人不安。
人工智能將繼續改善人們的生活,但前提是它能夠取得人們的信任。如果不能最小化其可怕性,它就不能充分發揮潛力。在保護人們免受潛在負面影響之時,所失去的好處比想象中少得多。
人工智能很復雜,但并非不可捉摸。我們可以在不泄露任何商業秘密的情況下,如實地說明人工智能是如何工作的,以及從哪里獲得數據。當真正從使用者的角度考慮,透明運作時,人工智能就變得不那么“可怕”,生活也會變得更輕松。