成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

人工智能倫理學的一知半解

企業動態
在國內,明確提出AI倫理原則的人可能是百度的創始人李彥宏。2018年5月26日,他在貴陽大數據博覽會上指出,所有的AI產品、技術都要有大家共同遵循的理念和規則

 讀MBA時候的授業導師是周教授,周教授有一門頗受學生們歡迎的課程是“企業倫理學”。時隔多年,課本的內容已經還給了學校,但周老師課上的一些話還隱約記得。

 

 

 

[[313924]]

 

倫理學是關于道德問題的科學,是將道德思想觀點的系統化和理論化。解決的基本問題只有一個,就是道德和利益的關系問題。對這一基本問題的答案決定著各種道德體系的原則,也決定著各種道德活動的評判標準。

由人組成的組織在進行經營活動時,在本質上始終存在著倫理問題。所以,企業倫理是企業經營本身的倫理。

 

 

 

[[313925]]

 

AI倫理的提出

在國內,明確提出AI倫理原則的人可能是百度的創始人李彥宏。2018年5月26日,他在貴陽大數據博覽會上指出,所有的AI產品、技術都要有大家共同遵循的理念和規則:

AI 的最高原則是安全可控;

AI 的創新愿景是促進人類更加平等地獲得技術能力;

AI 存在的價值是教人學習,讓人成長,而不是取代人、超越人;

AI的終極理想是為人類帶來更多的自由和可能。

 

 

 

[[313926]]

 

同樣是2018年,微軟發表了《未來計算》(The Future Computed)一書,其中提出了開發人工智能的六大原則:公平、可靠和安全、隱私和保障、包容、透明、責任。

首先是公平性,是指不同區域的人、不同等級的人在AI面前是平等的,不應該有人被歧視。

第二是可靠性和安全性,指的是人工智能使用起來是安全、可靠、不作惡的。

第三是隱私和保障,因為涉及到數據,所以總是會引起個人隱私和數據安全方面的問題。

第四是必須考慮到包容性的道德原則,要考慮到世界上各種功能障礙的人群。

第五是透明度。在過去,人工智能領域突飛猛進最重要的一個技術就是深度學習,深度學習模型的準確度是幾乎所有機器學習模型中最高的,但在這里存在一個是否透明的問題。透明度和準確度無法兼得,只能在二者權衡取舍,如果準確度更高,可能要犧牲一定的透明度。

第六是問責。問責制是一個非常有爭議的話題,涉及到一個法律或者立法的問題。如果是機器代替人來進行決策、采取行動出現了不好的結果,到底是誰來負責?不能讓機器或者人工智能系統當替罪羊,人必須是承擔責任的。

 

 

 

[[313927]]

 

實際上,大約在1950年,科幻作家阿西莫夫就提出了 “機器人三定律”:

第一,不傷害定律:機器人不得傷害人類,也不得見人受到傷害而袖手旁觀。

第二,服從定律:機器人必須服從人的命令,但不得違反第一定律。

第三,自保定律:機器人必須保護自己,但不得違反一、二定律。

這三條定律在制造機器人的伊始便被嵌入其大腦,永遠無法消除。

這些都涉及了一定的倫理問題, 都還都是些概要性原則,較完善地提出AI 倫理與價值的可能是阿西洛馬人工智能原則了。

阿西洛馬人工智能原則

2017年1月初舉行的“Beneficial AI”會議,在此基礎上建立起來的“阿西洛馬人工智能原則”,名稱來自此次會議的地點——美國加州的阿西洛馬(Asilomar)市,旨在確保AI為人類利益服務。

 

 

 

[[313928]]

 

西洛馬人工智能原則的第6至18條,指出了人工智能的倫理和價值:

6) 安全性:人工智能系統在它們整個運行過程中應該是安全和可靠的,而且其可應用性的和可行性應當接受驗證。

7) 故障透明性:如果一個人工智能系統造成了損害,那么造成損害的原因要能被確定。

8)司法透明性:任何自動系統參與的司法判決都應提供令人滿意的司法解釋以被相關領域的專家接受。

9)責任:高級人工智能系統的設計者和建造者,是人工智能使用、誤用和行為所產生的道德影響的參與者,有責任和機會去塑造那些道德影響。

10)價值歸屬:高度自主的人工智能系統的設計,應該確保它們的目標和行為在整個運行中與人類的價值觀相一致。

11)人類價值觀:人工智能系統應該被設計和操作,以使其和人類尊嚴、權力、自由和文化多樣性的理想相一致。

12)個人隱私:在給予人工智能系統以分析和使用數據的能力時,人們應該擁有權力去訪問、管理和控制他們產生的數據。

13)自由和隱私:人工智能在個人數據上的應用不能充許無理由地剝奪人們真實的或人們能感受到的自由。

14)分享利益:人工智能科技應該惠及和服務盡可能多的人。

15) 共同繁榮:由人工智能創造的經濟繁榮應該被廣泛地分享,惠及全人類。

16)人類控制:人類應該來選擇如何和決定是否讓人工智能系統去完成人類選擇的目標。

17)非顛覆:高級人工智能被授予的權力應該尊重和改進健康的社會所依賴的社會和公民秩序,而不是顛覆。

18)人工智能軍備競賽:致命的自動化武器的裝備競賽應該被避免。

共有23條準則,旨在確保人類在新技術出現時能順利規避其潛在的風險,其突出核心成員有Stephen Hawking和Elon Musk。這個組織專注于由新技術和問題構成的潛在威脅,如人工智能、生物技術、核武器和氣候變化等。

 

 

 

[[313929]]

 

AI 倫理學?

實際上,很多倫理問題連人類自身都沒有解決,由人類定義的倫理邏輯是否存在漏洞呢?微不足道的漏洞,在人工智能發展到一定程度后卻可能成為壓倒整個倫理系統的稻草。

對于功利主義者而言,“以人類為中心”將是發展人工智能的重要倫理依據:必要的領域應該限制機器的智能超過人類的智能,即使將來某一天超過了,掌握權還要在人類的手中。但是這種“物我兩分”的價值觀,本質上是一種“主奴思想”。在人工智能可能超過人類的語境下,可能并不是最好的解決方案。倘若人類真的要在人工智能這條路上走下去,將倫理的判斷完全掌握在人類手中或是全權交給“更智慧”的人工智能都是不可行的;將人類自身與人工智能放到統一的維度去審視,方能產生一個相較而言最為完善的人工智能倫理關系。

另外,妥善處理人工智能與人類之間可能產生的情感與羈絆,也是人工智能倫理研究的重要一環。

 

 

 

 

在國外,MIT媒體實驗室(MIT Media Lab)和哈佛大學伯克曼克萊恩互聯網及社會研究中心(Berkman Klein Center)共同成為了“人工智能倫理和監管基金”的管理機構,用于解決人工智能所帶來的人文及道德問題。

現在,人工智能技術在我們生活的各個方面都變得越來越有用。它們存在于我們的智能手機、社交網絡、家庭智能音箱、私人交通工具ーー只要你能想到的,就有人工智能在某處工作。就像任何新興的技術一樣,需要充分利用這些AI技術; 同時確保人工智能在道德和收益上有益于所有人。

人工智能倫理學可能會發展成一門學科,可能要解決以下的一些問題:

人性: 機器如何影響人們的行為和互動?

不平等: 人們如何分配機器創造的財富?

失業: 人們在沒有工作后會發生什么?

安全: 人們如何保護AI不受敵人侵擾?

......

在建立AI體系時需要考慮的一些倫理要點

現在,可能需要企業和政府介入并幫助解決這些問題,確定指導行業內的AI倫理原則,最終幫助確保AI技術的安全性和可持續性,能夠發揮AI 的潛力。

 

 

 

[[313930]]

 

在建立AI倫理和AI經濟時需要考慮的五個要點——

1: 引入人工智能的公司治理和道德框架

對于支持AI倫理的人工智能經濟而言,第一步是制定關鍵原則,以維護該技術的道德使用。企業應起草或修訂企業政策,納入新技術的道德使用立場,概述其業務模式所特有的問責措施。公司還需在組織的各個層面建立明確的期望,使AI倫理成為整個公司討論中的一部分,從董事會會議和員工績效評估,到非正式管理和員工簽到。

在政府層面,官員應該注意監管機構在指導實施AI倫理方面的作用。決策者應直接與行業專家合作,熟悉人工智能的技術構成、潛在的安全風險和現實世界的應用程序,然后再啟動正式的調研方案。

2: 揭開人工智能的神秘面紗和關于其責任的問題

為了揭開人工智能的神秘面紗和圍繞問責制,企業應該首先承認實施該技術的任何潛在風險,并制定在部署之前和使用之后進行AI測試的戰略。在制定這些策略時,公司應該與外部專家一起探討人工智能的問責制如何適用于特定的企業目標和客戶需求。

 

 

 

[[313931]]

 

政府官員應該認識到在采取措施促進問責制和允許人工智能創新之間的動態平衡。找到這種平衡將有助于保持技術及其用戶的誠實和透明度,因為新政策仍然在制定之中。

3: 建立人們對企業人工智能的信任

作為一個企業,在使用人工智能時,必須盡可能保持透明。在向利益相關者介紹這一想法時,企業必須分享技術的預期目的以及認為在他們的組織中采用這一想法的重要原因。商業領袖需要通過制定培訓和認證方案,明確界定使用人工智能的標準,并應公開說明為界定這些最佳實踐而采取的措施,特別是為檢驗技術缺陷而采取的任何步驟。

 

 

 

[[313932]]

 

政府可以通過尋找機會,讓公眾參與正在進行的討論,解決民眾關注的問題,并介紹今后的考慮因素,從而建立對企業AI的信任。此外,通過政府來提高民眾的認識,政府可以努力減少公眾對于在工作和日常生活中使用AI的某些抑制。

4: 將人工智能引入勞動力隊伍

為了鼓勵將人工智能納入勞動力隊伍,企業應投資于對自動化技術相互作用的工作人員進行再培訓。為了最大限度地利用這種培訓,公司可以給人力資源部門提供未來技能需求所需的數據,這樣他們就能準確地知道什么樣的工具可以武裝當前和未來的員工隊伍,從而取得成功。

 

 

 

[[313933]]

 

5: 需要為年輕學生制定數字教育方案

最后,企業和政府都應該支持針對年輕學生的AI教育項目,幫助確保下一代人能夠運用人工智能,理解更廣泛的倫理問題。在一個理想的世界里,學生完成教育后,預測圍繞人工智能技術的使用的道德框架和原則,他們將理解問責制,并反過來期望公司具有透明度。只要企業、政府和行業參與者共同努力,為AI倫理奠定適當的基礎,這一切就可以實現。

AI倫理學,可能還處于一知半解的狀態里,都在路上。

 

 

 

[[313934]]

 

 

責任編輯:武曉燕 來源: 51CTO專欄
相關推薦

2017-02-21 14:37:07

2022-01-16 20:25:57

WebAssembly網絡

2021-05-06 10:26:49

穩定幣加密貨幣

2022-02-20 21:44:29

軟件系統架構

2021-10-18 11:42:23

數據系統權衡

2020-03-09 09:56:13

高并發高可用架構

2021-03-26 00:20:34

NFT區塊鏈數據庫

2021-09-03 09:22:28

人工智能倫理AI

2022-11-16 12:48:38

2022-08-10 14:35:33

機器人模型

2017-06-28 15:37:28

2022-01-26 09:53:23

計算機體系結構

2020-06-17 14:13:29

索引數據庫場景

2024-09-02 13:23:21

2021-01-31 08:30:46

人工智能AI

2016-02-16 10:30:32

機器人

2020-10-22 10:23:22

機器人工智能技術

2021-04-13 10:37:46

人工智能數據技術

2020-12-23 15:57:42

人工智能索尼開發

2021-04-14 23:08:00

人工智能教育安全
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品毛片一区二区三区 | 精品av | 久久久久免费 | 久久久www | 久草免费在线视频 | 亚洲精品视频导航 | 国产精品视频免费观看 | 自拍偷拍av | 男人的天堂久久 | 在线观看成人免费视频 | 亚洲精品一区中文字幕乱码 | 国产不卡在线观看 | 东方伊人免费在线观看 | 可以免费观看的av | 亚洲人成一区二区三区性色 | 亚洲一区精品在线 | 99久久精品一区二区毛片吞精 | 青青草视频网 | 色秀网站 | 久久夜视频 | 精品视频国产 | 国产视频一二三区 | 久久精品二区亚洲w码 | 天天干天天玩天天操 | 在线播放国产一区二区三区 | 亚洲精品www | 欧美日本亚洲 | 久久久久久国产精品 | 国产欧美日韩精品一区 | 国产成人短视频在线观看 | www四虎影视 | 99福利| 日本在线免费视频 | 国产色爽 | 一区二区在线 | 99精品一区二区 | 国产区视频在线观看 | 成人国产综合 | 久久九| 黄色三级在线播放 | 欧美炮房|