成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大數據、人工智能帶來的危機:科技巨頭會毀掉我們的生活嗎?

大數據 深度學習
Facebook和谷歌非常方便,但是這些創新產品遠遠無法與電力的發明,甚至室內廁所和清潔水相媲美,后者在改善人類健康、延長人類壽命方面發揮了至關重要的作用。

 01 高科技時代的零失業現象

半個多世紀以前,著名數學家約翰·馮·諾依曼曾提出,也許有一天,生產一臺機器的成本會低于雇用或訓練一個“工人”的成本,而這些機器將由其他學習如何生產機器的機器來生產。從企業的角度考慮,讓機器替代人力的關鍵原因并不僅僅是機器提高了生產率。機器的設計、制造和管理比人力資源管理要容易和便宜得多。

比如,機器不會像人類那樣罷工,也不需要專門設立一個人力資源部門來照顧人們的需求,而且機器不會被感情因素左右。正如之前我們所提到的關于放射科醫生被機器取代的例子一樣,諾依曼的預言正在成為現實??紤]到人工智能在過去5年所取得的進步,在未來,機器能取代的工作的范圍和種類只會不斷加速擴大。

在某些領域,人工智能的進步并不會取代勞動力,反而會提升人們的工作效率,這種創新往往被稱為智能輔助創新。類似這樣的創新形式可以增加社會對勞動力的需求,提高人們的工資水平。過去很多科技方面的革新都是智能輔助創新,但是我對此并不持樂觀態度。

就業問題在過去十分嚴峻,未來很可能會朝著更加糟糕的方向發展。相關經濟學文獻曾經提出,技術革命可能會以“兩極化”的形式發展,即社會未來的就業增長將分為兩類:一類是技術門檻極高的工作,而另一類是技術門檻非常低,且工資相對較低的工作。

 

[[332050]]

 

當機器生產取代了勞動力,失業率將會隨之上升。有一個杜撰出來的故事很完美地描述了我們將會遭遇的困境。福特的主管和工會主席并肩俯視著新落成的汽車工廠,那里的大部分工作都是由機器完成的。“你打算怎么讓那些機器支付你們工會的會費?”福特的主管挖苦道,“這些機器不會成為你們之中的一員。”工會主席如此回答道:“你要怎樣才能讓它們買你的車呢?”

就業機會的流失會導致消費需求降低,如果沒有強有力的政府進行干預,經濟可能會長期陷入停滯狀態。最諷刺的是,如果這種情況真的發生,技術進步可能會摧毀經濟,而不會為全人類帶來福祉。

有些人認為,這正是美國在大蕭條之前發生的情形。農業技術的飛速發展導致一些商品的價格急速下跌,從而為大蕭條的爆發埋下了禍根。結果,1929~1932年,農業凈收入實際下降了70%以上。

農民的收入迅速減少,與之相對應的是農民的財富也相應減少了。然后,伴隨著農村土地和房屋的貶值,一個可怕的惡性循環開始了:失業的農民負擔不起遷往城市的費用,當收入下降時,他們只好更勤奮地工作,生產出更多產品,結果適得其反,農產品的價格被壓得更低。

此外,由于收入減少,這些農民買不起城市生產的商品,如汽車。因此,農民所遭受的苦難很快向城市蔓延,新一輪痛苦的循環開始了:城市收入水平的降低導致城市對農產品的需求量降低,從而再次壓低了農產品的價格,農民所承受的負擔進一步加重。

如此循環往復,經濟陷入了低水平均衡陷阱(low-level equilibrium trap),這是“二戰”的產物。在戰后階段,政府大力推動農民從鄉村走向城市,訓練他們,讓他們足以在城市工作,從而帶來了“二戰”后的繁榮。

以上經驗帶來的教訓就是,如果無法合理管控科技創新的步伐,技術進步不僅不會為人類帶來繁榮,反而會釀成難以想象的災禍。如今在比較好的經濟大環境下,我們對管理面臨技術革新的經濟體有了更深入的認識。

保持勞動力市場充分就業是重中之重。當積極的貨幣政策(如降低利率或增加信貸供應)不起作用時,我們可以使用積極的財政政策(即減稅或增加政府支出,特別是增加公共投資)來達成這一目的。貨幣政策和財政政策都會刺激總需求,只要有足夠的刺激,經濟總能恢復到充分就業的狀態。

 

02 市場勢力與人工智能

在前文中,我已經著重強調過市場勢力正在侵蝕美國經濟的多個部門,而且市場勢力的擴張可能會導致經濟效益降低,社會不平等問題加劇。而這些問題和其所導致的結果在高科技產業中表現得尤為突出。

大數據技術讓像谷歌、亞馬遜和Facebook一樣的科技巨頭掌握了大量客戶的資料,而人工智能則進一步擴大了它們的市場勢力。只要這些企業繼續維持數據壟斷,那么它們將會比任何人都了解自己的客戶(它們也沒有動機將這些數據共享給其他人)。大數據技術的擁護者認為,企業可以根據收集的數據為客戶設計更能滿足其需要的產品,并根據每個客戶的要求進行定制。

他們還認為大數據能夠推進醫療保健的發展,為所有人提供量身定制的醫療服務。搜索引擎企業聲稱它們可以使用這些數據更精確地投放廣告,因此人們能更方便地獲得他們需要的信息。以上都是大數據比較積極的一面,然而科技龍頭企業也能利用這些數據,以犧牲客戶的利益為代價,通過人工智能技術增強自己的市場勢力,攫取更多利潤。

這些新興科技巨頭所掌握的潛在市場勢力要比20世紀初壟斷企業所掌握的更加強大和危險。曾經,以Swift、標準石油(Standard Oil)、美國煙草(American Tobacco)、美國制糖(American Sugar Refining Company)及美國鋼鐵(US Steel)等為首的壟斷企業可以利用其市場勢力隨意操縱食品、石油、煙草、糖和鋼鐵的價格。

然而,現在已經不僅僅是提高商品價格這么簡單了。

Facebook可以通過改變算法來左右客戶看到的信息,市場勢力的影響力由此可見一斑。一種新的算法可能會導致某個媒體迅速衰落,也可能創造(甚至最終終結)一種新的、受眾更加廣泛的傳媒渠道(如Facebook Live)。

由于這些科技巨頭的市場勢力過于龐大,競爭監管機構必須對此采取措施,傳統的反壟斷手段已經不足以應付現狀,對于這些致力于拓展市場勢力的龍頭企業,政府必須跟上它們“創新”的步伐。

比如,就像我們之前曾經提到過的,美國是時候考慮將WhatsApp和Instagram從Facebook中分離出來了。同時,美國也要限制利益沖突的范圍,如限制谷歌的在線商店在與那些在其平臺上做廣告的商家競爭時爆發的利益沖突。

美國必須進一步加強對高新技術的管理,如限制數據的訪問和使用權限。接下來,我將分享一些可供參考的想法。

 

03 大數據與客戶定位

由于人工智能和大數據采集了消費者的偏好信息及愿意支付的價格,企業被賦予了價格歧視的權力,它們可以向那些對產品價值評價更高的消費者或選擇空間較小的消費者收取更多費用。

價格歧視不僅有失公允,而且給經濟的運轉效率拖了后腿,因為標準經濟理論是建立在無歧視性定價的基礎上的。對于同一件商品,每個人所支付的價格應該是相同的,但是人工智能和大數據可以令不同的人支付不同的價格。

因此,大數據和人工智能讓高科技企業分了更大一杯羹,而社會其余成員(如普通消費者)的處境卻更加艱難。例如,史泰博(Staples)已經被證明可以得知在特定郵政編碼區域的居民區附近是否有與其類型相同的商店,如果該地區沒有的話,史泰博就可以對網上訂單收取更高的費用。

保險企業也同樣知道客戶的郵政編碼,并且會根據郵政編碼收取不同的保費。它們不僅根據客戶的郵政編碼收取不同的費用,而且利用市場勢力榨取更多利益。事實上,像上述這樣通過郵政編碼區別定價的案例主要針對的是少數族裔,因此人工智能和大數據已經被證明是施行種族歧視的新道具。

21世紀的數字經濟擴大了企業對目標消費群體的影響力,使它們可以輕易地找到消費者的弱點。例如,人工智能可以辨別出容易對賭博上癮的人,人們可能會被別有用心的組織蠱惑去拉斯維加斯或者就近的賭場(賭博)。

正如社會學家澤內普·圖費克奇反復強調的那樣,人工智能可以利用人們對諸如新鞋、手提包或者海濱旅行等非理性的渴望,向消費者提供有針對性的信息,導致人們大肆揮霍金錢,使感性的自我壓倒理性的自我。

 

諾貝爾獎得主理查德·塞勒在他的研究中描述了人們內心中感性自我和理性自我斗爭的過程。新技術放大了人類軟弱的一面,而更讓人擔心的是,大數據和人工智能可以幫助企業近乎完美地洞察人類的弱點,并據此調整未來的戰略方向,以實現更大程度上的利益最大化。

大數據在很多科研領域中也十分有價值。一家基因企業收集的數據越多,它就越有能力分析一個人的DNA,并檢測出某些特定基因序列。追求利益最大化的企業傾向于盡可能多地收集個人數據,拒絕將這些數據分享給其他人。從下面一則故事中可以看出,在企業追求利潤的過程中,生命的凋亡只是另一種形式的附帶損害。

“人類基因組計劃”始于1990年,是一個致力于破譯人類基因序列的偉大國際工程。該工程于2003年圓滿結束。但是一些私人企業意識到,如果它們能走在這個項目的前面,就可以將破譯出來的基因編碼申請專利,進而牟取暴利。

例如,猶他州的麥利亞德(Myriad)公司獲得了BRCA1和BRCA2兩種基因的專利,并開發了一項基因測試技術來檢測這兩種基因的攜帶者。這項檢測十分有價值,因為攜帶這些基因的女性罹患乳腺癌的概率很高。麥利亞德公司開始漫天要價,診斷費用從2500美元漲到4000美元,后者相當于整個基因組測序的成本。

高昂的價格超出了很多人的承受范圍,但麥利亞德公司的診斷不僅價格昂貴,其檢測技術也和其他所有測試技術一樣并不完美。與此同時,耶魯大學的科學家開發了一種號稱結果更準確的檢測技術,他們愿意以低廉的價格向公眾提供基因診斷服務。

而作為該專利的“擁有者”,麥利亞德公司卻不愿意他們這么做。它之所以拒絕,并非僅僅因為利潤受到損失,而是因為它需要數據。

幸運的是,這個故事的結局是圓滿的。分子病理學協會起訴了麥利亞德公司,協會認為天然的基因是不應該獲得專利保護的。2013年6月13日,在一次歷史性的判決中,美國最高法院一致做出裁決,否決了麥利亞德公司的基因專利。

自那以后,基因診斷檢測的價格下降了,而且質量上升了。這個例子將專利對技術創新產生的負面影響體現得淋漓盡致。

 

當然,為了摸清客戶的偏好,以便于榨干每個客戶的最大價值,企業必須掌握大量數據,這意味人們會喪失個人隱私。

雖然有些人會認為,只要沒做什么見不得人的事,有沒有隱私其實沒什么關系,但這種想法毫無疑問是錯誤的。因為任何一個收集了大量關于他人數據的人(或者組織)都有可能將部分信息泄露出去,個人信息的安全性將受到威脅。如今,大數據及信息技術的進步可以讓企業和政府輕松地構建一個巨大的電子檔案庫。

有些人對此感到慶幸,因為美國的大數據技術掌握在像谷歌、Facebook或亞馬遜這樣的私人企業手中,而非政府。我并不認為這是件好事,一旦考慮到網絡安全的問題,公共和私人之間的界限就變得十分模糊。

愛德華·斯諾登的爆料告訴人們,美國政府已經掌握了大量個人的信息,而且美國國家安全局可以輕易獲取任何私人企業擁有的數據。此外,有關Facebook收集大量客戶數據的意圖、它將部分數據披露給其他機構的舉動(如劍橋分析公司),以及它為保護數據所采取的安全措施(是否到位)——這一切都讓人感到毛骨悚然。

簡而言之,我們必須關注個人隱私。在這個時代,隱私和權力是密不可分的。擁有大數據技術的企業早就明白了這個道理,而作為它的狩獵對象,大多數消費者似乎對此無知無覺。

這種科技強權有很多種表現形式。人們已經注意到像Facebook、亞馬遜和谷歌這樣的信息巨頭會通過信息優勢來鞏固自己的市場占有率,排擠競爭對手,并將自己的市場勢力滲透到其他各個領域。

由于這些企業在數據上占據絕對優勢,競爭對手幾乎沒有進入市場的空間。經濟理論和過去的歷史告訴人們,“老牌”壟斷者缺乏創新的動力,它們更樂于鞏固和拓展自己的市場勢力,而不會耗費精力研究如何更好地為他人服務。

 

04 規范數據及其用途

如果大量數據被掌握在少數企業手中,由此而來的市場勢力、個人隱私和安全問題將會引發社會動蕩。這應該引起我們的關注。在應對這些問題時,政府可以采取行動的空間其實很大,如更合理地分配數據的所有權,規范數據的用途。

歐洲已經開始進行類似的嘗試。有些科技巨頭企業抱怨說,歐洲官員采取這些措施是因為他們“反美”。這樣的解讀當然是錯誤的。歐洲之所以采取行動,是因為歐洲的法律要求政府維持市場的競爭性,而且整個歐洲對個人隱私是極為看重的。美國在這方面一直落于下風,至少有部分原因在于科技巨頭的政治影響力。

關于要如何限制科技巨頭的壟斷權力和對權力的濫用,有一種主張是將私人數據的所有權直接賦予個人。這意味著企業如果想使用這部分私人數據,必須向數據的所有者支付一定費用,而數據所有者也可以拒絕企業的請求,以免企業通過獲取數據對自己進行剝削。

而這也意味著,至少數據價值其中的一部分歸個人所有,而非科技企業。歐洲已經開始試水類似的措施,試圖在一定程度上給予個人掌握私人數據的權力,如谷歌必須要獲得客戶明確的同意才能使用其數據。自由市場的擁護者則支持另一種解決方案:讓客戶自己決定。

因此,一些互聯網企業提出,如果客戶允許它們使用數據,互聯網企業將對這些客戶提供一小部分折扣,而大多數客戶也欣然支持這項提議。一家企業的負責人曾向我吹噓他能夠以多么低廉的價格獲得如此有價值的數據,并最終成功地將這些數據轉化為大筆財富。

面對這種情況,有些人說:順其自然吧。每個人都可以自由決定別人是否可以使用自己的數據。但在社會生活的許多領域,我們會作為一個社會整體對個人的選擇加以約束。

 

在一些情況下,我們的社會嚴令禁止個人做出即便是只會對自己產生危害的行為,如參與傳銷或出售器官。同樣的道理也適用于個人數據的使用權,特別值得注意的是,當一個人的數據與其他人的數據相結合時,將會創造出更有利于企業剝削消費者的環境。

消費者實際上并不理解自己的數據有什么價值,他們也沒有想過當自己的數據被一些心術不正的人利用時會發生什么,更不清楚企業對他們的隱私和安全漠視到了什么地步。大多數人甚至不知道產品責任法是什么,也不知道數據被泄露的后果是什么。

考慮到美國現有的法律體系并不公正,想要伸張正義就必須付出很大代價。艾可菲(Equifax)的丑聞揭示了美國企業的虛偽。

這家企業在未獲得客戶允許的情況下大量收集個人數據,其在2017年發生了一次大規模的數據泄露事件。由于系統遭到入侵,1.5億美國人的私人信息轉眼間被黑客盜走。更過分的是,艾可非不僅未能確保數據的安全,還試圖利用數據泄露本身賺錢,受害者如果想要查明自己的數據是否被泄露,就必須簽署棄權書。

對企業實施數據監管可以有很多種不同的形式。軟性監管只會要求透明度,并對企業披露的隱私和安全政策進行審查,以確保其準確性。硬性監管需要更有力度的監督和禁令,如禁止賣和用客戶數據,這樣我們至少可以確??蛻糁雷约旱臄祿蝗绾问褂?。此外,我們必須對數據的匯總加以限制。

人們必須意識到,隨著企業掌握的數據總量增加,個人的隱私和權益就越有可能受到侵害。我們可以對數據的使用實行“知情同意”制度,但問題是必須對合理使用數據的方式做出定義,并確保個人意愿得到充分的尊重。

例如,很多人以為自己在 Facebook上設置的隱私等級已經很高了,但實際上 Facebook依然能高度自由地使用他們的個人數據。

政府對監管措施的加強可以更進一步,如規定企業在使用個人數據時需要支付的最低價格,甚至禁止企業在超出一定時間之后儲存客戶的個人資料。

設立一個審查程序也許是不錯的選擇。任何持有大量個人數據的企業都必須向審查小組披露這些信息的使用情況。考慮到一些科技巨頭不堪入目的誠信記錄,任何欺騙行為都必須受到嚴厲的懲罰。

還可以考慮對數據的使用或存儲進行征稅。允許人們收集、存儲和使用大量數據的技術本身也給征稅帶來了很多便利。我們可以要求數據只能以“集合體”的形式存在,且這些被存儲的數據沒有單獨的標識符(即以匿名數據的形式儲存)。允許研究人員收集相關的數據用以分析消費者的行為模式,但這些數據不能直接指向特定的個人。

我們甚至可以更進一步,將數據視為一種公共產品,要求所有存儲的數據(無論是否經過處理)都向社會開放,從而削弱科技巨頭利用數據優勢得以鞏固的壟斷地位。

但這種做法將會引發關于隱私問題的爭論:少數幾家大型科技企業利用大數據增強了自己的市場勢力,但如果人們想要通過公開數據的方式打破僵局,那最終會出現一個巨大的“公共數據池”。

然而這意味著人們的隱私會受到更嚴重的威脅,也給了商家更多可乘之機。進入市場的企業將會爭先恐后地利用公共信息為自己撈取更多利益,包括用上文提及的各種手段收集數據以剝削消費者,這反而會增加企業濫用數據的可能性。因此,即使要公開所有數據,政府也必須對數據的用途做出限制,并且避免數據過度集中化。

Facebook更接近于 “自然壟斷”,難以進行規范管理。也許將 Facebook公有化是唯一的解決方式,借此 Facebook將不得不接受公眾的嚴密監督。

 

責任編輯:華軒 來源: 今日頭條
相關推薦

2018-10-17 15:10:49

人工智能大數據深度學習

2017-08-18 11:10:00

人工智能金融科技

2022-02-12 12:36:43

人工智能機器人AI

2023-04-19 15:32:22

人工智能

2021-06-30 20:19:22

人工智能AI

2021-08-19 17:14:31

人工智能科技算法

2017-08-17 15:15:18

人工智能失業

2020-12-23 14:20:16

人工智能大數據數字化轉型

2019-01-11 14:45:30

2019-11-11 16:19:39

人工智能

2021-04-13 17:41:04

人工智能機器人大數據

2021-07-04 16:29:08

人工智能AI

2020-01-07 10:28:01

人工智能機器學習技術

2021-09-06 09:09:22

人工智能安全風險AI

2018-10-31 09:30:23

人工智能物聯網智能手機

2021-05-05 22:34:58

人工智能無人駕駛技術j

2021-02-06 10:13:53

人工智能AlphaGo

2019-07-30 10:55:38

人工智能技術系統

2017-12-21 11:32:07

人工智能薪資失業

2019-12-16 16:26:12

人工智能AI大數據
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久久久久成人网 | 日本久久www成人免 成人久久久久 | 欧美成人一区二区三区片免费 | 91国自视频 | 欧美日韩亚洲视频 | 国产精品久久久久久久久久久久冷 | 国产美女久久久 | 久久久久久久国产 | 毛片一级片 | 中文字幕在线一区 | 日韩欧美亚洲 | 国产精品乱码一区二区三区 | 成人福利 | 美女久久久久久久久 | av一级一片| 中文字幕亚洲精品 | aaa在线| 99免费| 婷婷在线视频 | 在线色| 日韩精品 电影一区 亚洲 | 玖玖在线免费视频 | 一级高清免费毛片 | 成人超碰 | 国产精品久久 | 久久精品手机视频 | 久久久久久久国产 | 亚洲av一级毛片 | 国产成人精品a视频 | 免费一区| 91在线观看免费 | 天天操天天射天天 | 欧美女优在线观看 | www国产成人免费观看视频,深夜成人网 | 成人影院免费视频 | 日日操操| 国产成人99久久亚洲综合精品 | 国产成人在线一区 | eeuss国产一区二区三区四区 | 一级毛片黄片 | 另类一区|