成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大數據、人工智能與法律職業的未來

人工智能 深度學習 大數據
法律是人類最古老的學科,人類歷史上第一部成文法典《漢穆拉比法典》出現在3800多年以前。

 我做過很多次關于人工智能與法律職業的未來的講座。這兩年關于人工智能基本上每隔兩三天就會出一個非常大的新聞,比如AlphaGo Zero打敗了AlphaGo,沙特阿拉伯第一次授予一個叫“索菲亞”的機器人以公民身份。2017年12月,深圳有兩輛無人駕駛公交車正式上路試點。正是因為人工智能在2017年取得了非常多的突破性進展,所以法律界開始越來越多地關注人工智能與法律的關系問題。

[[349417]]

與其螳臂當車,不如放手擁抱

法律是人類最古老的學科,人類歷史上第一部成文法典《漢穆拉比法典》出現在3800多年以前。而無論是以阿蘭·圖靈(Alan Turing)于1950年第一次提出“機器能否思考”這個問題作為起點,還是以1956年達特茅斯會議上數學家約翰·麥卡錫(John McCarthy)第一次提出“Artificial Intelligence(AI)”這個術語作為發端,人工智能都只有60多年的歷史。且這60多年間經歷了好幾次大起大落,其取得突破性進展則是最近幾年的事情。

人工智能的發展正改變人類社會的交往方式、組織結構和商業模式,并且對法律職業產生了直接沖擊。早在“人工智能”這個詞匯出現之前,將人類的工作自動化,即用機器替代人的勞動就已經成為無數科學家努力的方向。一開始是用機器取代人的體力勞動,現在是取代人的腦力勞動。諾伯特·維納(Norbert Wiener)在20世紀40年代末出版《控制論》時,就已經有很多人在討論這個問題了。

如果說當時的機器取代人類的腦力勞動還相去甚遠,那如今利用互聯網所產生的海量數據進行深度學習的機器卻離這個目標越來越近了。我們談人工智能的時候顯然有兩個關鍵詞:一是“人工”,二是“智能”。

但是,人工智能用機械和電子的方式來模擬人類智能,它在取得突破性進展之后是可以復制的。一個人工智能產品可以批量生產的這種可復制性就導致了它對人類的職業、人類勞動產生非常大的沖擊。

法律和醫學一直以來都是人類社會各種職業當中的塔尖職業,因為這兩種職業的技能都需要經過長時間的學習和訓練才能夠掌握,都有很高的準入門檻,從業者都受到嚴格的法律和倫理規范的約束。但是,人工智能目前正猛烈地沖擊這兩個職業,大數據精準醫療和法律人工智能產品正在改變著這兩種職業的未來前景。

同樣地,學習法律的人也是在學習一套相對封閉的概念和原理。起源于古羅馬時代和亨利二世時代的英國的法律概念,直到今天,我們法律人每天都還在學習和應用。如果我們單純地用法教義學的方法來學習法律,就很難應對周圍正在發生的天翻地覆的變化。而作為社會秩序的維護者,法律人適應這種變遷的意愿和能力往往都比較弱。專門評論互聯網和人工智能問題的一位非常著名的公共知識分子和媒體人克萊·舍基(Clay Shirky)說過:“制度和機構是為解決具體的社會問題而設立的,而它們總是試圖不讓這些問題得到徹底解決,從而維護自己存在的合理性。”他是在批判法律人的保守性,因為法律人試圖用固有的一套框架、機構和程序來規范整個社會,包括規范突飛猛進的科技。在他看來,這種保守性可能會在整個社會發生急劇變遷的時代帶來很多問題。作為制度化和機構化的動物,法律人每每試圖關上自己所不熟悉的大門,努力用自己所熟悉的概念和思維框架來限定技術革新正在帶來的各種新的可能性。但這種努力與其說可以力挽狂瀾,不如說更像是螳臂當車。更加可行的態度是向新技術敞開心扉,積極投入它所帶來的各種新的職業場景,在參與過程中去理解它,充分利用它所創造出來的新機會,同時留意它所帶來的各種新風險。正如馴服一匹馬的最好方法是騎上它,而不是擋在它前面一樣,馴服人工智能的最好方法也是在駕馭中控制它。

現在很多討論都是非常悲觀地預測人工智能將會如何取代人的勞動,使人失去工作,但在我看來其實人工智能會開放出很多新的就業機會。人工智能會取代很多就業崗位,但只要我們能夠不斷地更新自己的知識結構,它會開放出更多的就業機會。

實際上,一些有遠見的法律人早已行動起來。比如被大成合并的美國德同(Dentons)早在2016年就創建了自己的人工智能實驗室Nextlaw Labs。它與IBM公司的認知技術平臺“沃森”(Watson)合作,一起開發了法律人工智能產品——ROSS。這是目前市場上比較成熟的法律人工智能產品之一,已經在數十家國際律所和中國的幾家紅圈所測試使用。

此外,包括戴維律所在內的許多大型律所都已經設置了一種新的職位叫首席知識官,或者叫首席技術官。其主要工作是投資、購買和使用法律知識產品。購買、應用這種產品就意味著律所會解雇一批從事案頭工作的律師。這在美國已經成為一個非常明顯的事實。首席知識官會帶領一個團隊專門從事本所的數據庫建設和人工智能產品的投資開發與調配。這表明一種新的法律職業——法律知識工程師正在興起。我國目前也有明顯跡象。近幾年的司法改革,在客觀上導致了大量法官和檢察官投身大數據和人工智能行業。例如,華宇元典、上海的貝格數據、阿里的法務部門和安全部門都吸收了大量辭職的法官和檢察官。這個跡象同時也表明法律人工智能產品正在大量地替代律師。很多的律所都會花巨資去購買法律人工智能產品,而不是招聘新的律師。這對同學們來說是一個壞消息,但也是一個好消息。因為以前大家的選擇面都很小,要么去公、檢、法,要么去做律師,但以后法科畢業生完全可以進入其他行業如大數據公司,而且不只是進入法務部,甚至可以進入生產部門和程序員一起設計更加符合法律規則的人工智能產品。在我看來,法律知識工程師就是一種全新的職業,它不是一個概念,它已經變成了一個現實。

 

人工智能在法律職業中的應用現狀

下面舉三個美國的例子來說明人工智能在法律職業中的現有應用現狀。

第一個是電子取證。這里的“取證”不是狹義的訴訟過程中的取證,而是包括訴訟和交易環節的對事實素材的整理和相關性分析,是廣義的取證。現在大量的交易是在網上完成的,有大量的交易記錄,像這樣的東西都屬于電子取證,都是人工智能產品需要去分析的對象。非訴業務當中也要保存大量的事實,以幫助完成報稅、合規審查、上市準備、商業談判、交易等工作。這種工作在美國已經有非常成熟的產品,有一家叫Brainspace的公司所開發的產品Discovery就可以幫助當事人完成對事實素材的整理。以前一個大企業想完成一年的報稅往往需要很大的團隊,花一兩個月的時間才能夠完成相關數據的整理,但是如果利用Discovery這樣的人工智能產品就可以在一兩天的時間內把所有的數據整理出來。最新一代的產品Discovery 54還增加了中文、日文和韓文等多種東方語言的閱讀功能,從而大大提高了跨國法律業務當中的取證能力。隨著自然語言處理(Natural Language Processing,NLP)技術的發展,這個領域的產品可以覆蓋的語言種類也會越來越多。

第二個是訴訟管理。美國Casetext公司專門開發的案件分析研究助理(Case Analysis Research Assistant,CARA),可以幫助律師和企業法律顧問完成從案例法規分析到陪審員的選擇直到法庭辯論文書生成等一系列任務。其最終出來的產品就是一份正式的法律文書,律師或者公司法人代表拿到這樣的文書,就可以直接出庭應訴或者完成一項交易。這樣的產品不僅在美國越來越多,在中國也會越來越多。

此外,更加著名的就是前文提到的基于IBM Watson平臺開發的人工智能產品——ROSS。它的主要功能就是進行法律研究(legal research)。法律研究不是指學術研究,而是指所有的法律職業人士都必須做的法條、司法解釋、判例的搜索和研讀工作。無論從事的是訴訟業務還是非訟業務,都需要花費大量的時間來研究法條和判例,從而形成相應的“訴訟策略”或“交易策略”。法律研究是傳統律師業務中最耗費工時的工作。據說,ROSS系統可以替代目前美國律師70%的法律研究工作,而且準確率高達90%以上,遠遠高于頂尖法學院畢業生從事同類工作的準確率。

當然,目前主要由律所合伙人從事的人際溝通工作和法官的判斷工作還無法被機器所取代。但這里的“無法”不是指技術上不可能,而是指我們人類還不能夠放心讓機器去代替我們作判斷。如果我們放心,實際上機器人可能比人類法官更加準確、更加公正,因為它不帶有人類的感情。亞里士多德說過一句名言:“法律是摒除了激情的理性!”但是,任何人類的決策者都不可能完全摒除情感,機器顯然比人類更能夠做到不帶情感地去作判斷。所以如果放心讓機器人去當法官,它是可以勝任的,在技術上也是可以實現的。此外,還有一個責任問題,即如果機器人作了判斷,那到底誰來承擔責任?像這樣的問題都使我們還“無法”把這個判斷工作交給機器人。

ROSS系統不僅可以作法律研究,還可以把研究結果生成簡報或者備忘錄,或者律師所使用的其他文件。如果把它用到法院,直接生成判決書也沒有問題。

這方面走在前面的是貴州省高級人民法院(以下簡稱貴州省高院)。貴州省高院使用上海貝格數據有限公司所開發的人工智能產品,可以做到直接生成判決書。在判決書當中需要人類去把關的部分,它會特別標注出來,法官只要對標注出來的這些部分再修改就可以了。這說明現在的人工智能系統甚至可以直接形成一個最終的判決書,這正是很多的法律人特別是目前法學生所擔心的問題。顯然,人工智能可能會取代很多法律人的工作。美國法學院畢業生通過律師執業資格考試后,一般都會從初級律師開始做起。經過7~10年才可能升為合伙人。這個階段的主要工作就是法律研究,也就是所謂的案頭工作。以前這種工作需要大量的律師花費大量的時間去完成,而隨著越來越多的美國律所購入人工智能產品,他們對從事案頭工作和法律研究工作的律師的需求會越來越小。根據美國律師協會的數據,從2005年到2015年,申請法學院的人數在美國減少了40%,而且這個趨勢還在持續。同時大家也可以想象,以后將會有越來越多的企業選擇購買這樣的產品,而不是聘請律師來為自己提供法律服務,這將極大地改變法律服務行業的圖景。這種沖擊一個是內部的,另一個是外部的。內部是律所本身會去購買人工智能產品,外部是潛在的客戶也會去購買人工智能產品。這種內外夾擊就會使目前大家所熟悉的律師工作的空間越來越狹小。

第三個是合同起草和合同審核。起草和審核合同是企業法律顧問面對的主要工作之一,現代商務世界的復雜使這項工作十分耗費時間和精力。美國LawGeex公司專門開發了有深度學習能力的人工智能產品。它通過對海量真實合同的學習掌握了生成高度精細復雜并結合具體情境的合同的能力。它起草的合同不僅遠超照搬合同范本的結果,甚至好于很多有經驗的公司法律顧問的作品。

 

未來已來

在互聯網早期,人們普遍認為互聯網會極大地拓展人的自由,認為互聯網是不能被規制的,因為在互聯網上發聲的都是匿名的。當時有一句話說:當你在網絡上說話的時候,沒人知道你是一只狗還是一個人。

在未來,所有人只要下載一個App就可以控制自己家里的所有電器,從冰箱、洗衣機到整個照明系統。但是,這就意味著可能你自己都不了解自己家里面正在發生什么,而其他人可以了解,因為你家里的所有電器時刻都在向網絡傳送著各類信息。我參加過中德高端論壇,參會者很多是來自德國各部部長。他們的議題本來是全球化與反全球化,與人工智能沒有關系,但是幾乎所有的德國人都在討論人工智能問題。他們提出了很多概念,比如,全世界冰箱聯合起來,那么超市就會知道你家里面缺什么。它不僅知道你缺什么,也知道你在不在家,使用冰箱的頻率是多少,然后可能在將來的某一天不用你去下單,超市就會直接把你需要的東西送到家門口,而你不會拒絕,因為你發現這正是你所需要的。

在這樣的背景下,法律職業其實是很不幸的。在我看來,它是一個最容易被人工智能取代的行業,因為人工智能與法律思維有著很強的表面相似性。世界上的兩大法系,分別強調演繹和歸納的重要性,而這與人工智能領域的兩大流派(符號主義的編程法和神經網絡)分別對應。神經網絡可以學習海量的人類經驗實現歸納,而早在神經網絡出現之前,符號主義的編程法已經可以模擬人的演繹推理。

今天,人工智能已經可以從人腦無從把握的海量數據中自行搜索并進行深度學習,可以說它在經驗歸納方面也具有超越人腦的能力。因此,無論強調法律是邏輯還是經驗,計算機都可以替代人類,法律職業在技術上是最容易被替代的。但同時它也可能是最難被替代的,因為所有的國家決策者基本上都是法律人,法律人不會讓自己被替代,我們會設計出各種各樣的規則來阻止人工智能技術替代法律。

 

互聯網大數據和人工智能

何謂大數據?所謂大數據不是指量大,它指的是海量存儲分析和處理技術。它包括三個層次的含義。一是物理層次,涉及數據量的產生速度和多樣性,也就是所謂的三維。二是分析技術層次,大數據分析技術能夠很快完成所謂的數據融合,在很短的時間內賦予非結構化的數據以一定的結構,從而能夠為決策和行動提供非常明確的參照。三是社會層次,大數據之大在于它改變了現有的生活方式、消費習慣、城市管理、交通管理、醫療衛生、教育科研和國家治理等社會方方面面。

主要問題就是可能激化社會矛盾。人工智能時代的到來,會使兩極分化越來越嚴重。人工智能時代的技術發展太快了,法律是遠遠滯后于科技和它所帶來的相關商業模式的變化的。

這將導致這樣幾個問題:

第一,它使個人的隱私和自由變得非常脆弱。

第二,它使傳統制造業和其他與互聯網沒有直接關聯的行業處于很明顯的劣勢。這是因為人工智能是一種覆蓋人類生活全部領域的技術。最早進入互聯網領域的企業因其行業特性自然而然成了大數據掌控者,人工智能對大數據的依賴又使他們自然而然成了人工智能領域的先驅。

比如Google和百度,傳統上都認為它們只是搜索引擎公司,但是我們驚訝地看到,Google和百度通過自己所積累起來的大數據開始進軍所有的行業,包括貌似離人工智能和大數據非常之遙遠的農業。現在Google、百度、阿里巴巴都在搞農業,通過在農作物上安裝生物傳感器,來獲得比實驗室作業更加直接和可靠的植物生長數據,從而獲得農業科技方面的突破。這并不是一種假設,而是Google和阿里巴巴等公司正在做的事情。

像這樣的例子就說明,人工智能之所以值得我們去思考和擔憂,恰恰在于它在顛覆著所有的傳統行業,它不是單一領域的事情。這個時候政府應該做什么,就是一個非常值得深思的問題。

第三,由于這些企業已經掌握了比政府更多的關于公民(作為消費者)的信息,它們熱衷于建設智慧城市、智慧政府、智慧法院等,政府部門可能也不得不求助于它們。像前文提到的,現在的智慧法院建設所用的都是私人企業開發的人工智能產品。這其實就模糊了公權力與私權利之間的邊界,使政府應該監管的對象成為政府的合作伙伴,乃至實際控制人。這對各個法律部門,從憲法、行政法到民法都提出了非常全新的問題。

第四,這些掌握人工智能應用技術的企業可以用人工智能來分析任何數據,包括消費者行為數據、政府決策數據、立法數據和法院判決數據并生成對策。這些對策有些要求線下的人際溝通,而有些則完全可以通過線上操控來完成。比如,Google和百度的搜索結果排序,京東、亞馬遜、淘寶有針對性的商品推薦等。這些排序其實是受算法決定的。而Google的排序影響美國總統大選也是不爭的事實。也就是說,很多操控完全可以通過算法、通過線上的方式來完成。這個時候法律如何介入、何時介入就會成為一個問題,法律以后應該更多地考慮如何規制沒有明顯人為介入的因素。雖然其實背后都是人,但我們對這種線上操縱背后的人為因素還重視不足。

由此導致的結果便是人們都“自愿服從”于某種他們看不見的力量,而這種力量借助人工智能的超強腦力使法律和監管完全找不到對象,乃至被牽著鼻子走。用臉書創辦人扎克伯格(Mark Elliot Zuckerberg)的話來說,我們正在進入算法而不是法律統治人的時代。而算法從表面上來看就缺乏法律的無偏私性和一般性,它毫不掩飾地服務于設計者植入其中的目的?,F在世界各國的法學家都在討論算法問題,因為現在算法是一個黑箱,我們要規制它就不能讓它永遠保持為一個黑箱,所以以后這個規制要進入算法設計層面。

第五,一旦人工智能被應用于本來就充滿流動性、風險與不確定性的金融市場,便可能帶來既無創新價值又危害巨大的災難性后果。2010年5月6日,美國股市發生了閃電崩盤,1萬億美元的資產價值瞬間蒸發,股價跌了9個百分點,道瓊斯工業指數激落1000點。因為沒有看到明顯的人為的因素,沒有內幕交易,也沒有市場操控,美國證券交易委員會花了半年時間才搞清楚發生了什么。原來是不同炒家的計算機程序在相互競爭的過程當中導致了失控。在這個被稱為高頻交易的神秘世界里,這些系統可以用迅雷不及掩耳的速度來收割小型獲利機會,還可以相互探測和利用彼此的交易策略。當它們彼此進行策略性交易的時候,就導致了這個系統的崩潰。

像這樣的人工智能對決不僅存在于股票市場,還存在于任何投機性的多方博弈市場。事后追責型的法律對策無法阻止人們在巨大利益的引誘下利用人工智能進行損害范圍無法控制的賭博式行為。

 

法律規制機器人的現有做法

世界各國規制人工智能的立法,目前有這樣幾種模式:

第一個就是賦予人工智能法律人格,這個主要是歐洲聯盟(以下簡稱歐盟)。

這個很有趣,也就是說歐盟建議在自然人和法人之外增加第三種法律主體叫作電子人。但是,在我看來,這個是沒有必要的。因為它只在這個部分提到了“電子人”的概念,而在后面所有的部分特別是在講法律責任問題的時候,就再也沒有提到過電子人。比如,電子人造成了損害。首先,它沒有自己的財產,至少到目前為止機器人不可能有自己獨立的財產。它如果能夠賺錢,它賺的錢也都歸它的所有者所有,所以不能對電子人給予經濟上的處罰。其次,你也不能把它投入監獄,你把它關起來其實就是剝奪了它的所有者的財產權。所以電子人這個概念是沒有任何意義的,最終承擔法律責任的還是自然人或者法人。

“電子人”這個概念是很符合法學家的思維方式的,既然出現了人工智能體,那么就創設一種新的法律人格。但是,我們可以看到最終落實法律責任的時候,還是需要自然人或法人來承擔責任。所以這并不是一個很成功的立法模式,雖然歐盟的政客和法學家們都非常推崇這種模式。

第二個立法的實例就是德國的自動駕駛汽車立法。2017年5月,德國聯邦議會和參議院通過了一部法案,對德國《道路交通法》進行了修改,它允許高度自動化和完全自動化的汽車作為交通工具上路。但是,為了符合1968年《維也納道路交通公約》第8條,法案要求每一部車輛在行駛時都必須有駕駛員到位。自動駕駛汽車的自動化程度分為0到5級,到了4級和5級的時候,基本上可以做到完全的無人駕駛。而只有做到無人駕駛,它才有真正的意義。但這部法律規定,當自動駕駛汽車系統啟動之后,司機可以轉移注意力去讀書或者上網,但必須保持足夠的警覺,以便在系統發出請求時恢復人工控制。它還要求高度或完全自動化汽車安裝記錄駕駛過程的黑匣子,在沒有卷入交通事故的情況下,黑匣子信息必須保存半年。如果自動駕駛模式正在運行過程當中發生了事故,責任在于汽車制造商,但如果自動駕駛系統已經發出了請求人工控制的信號,責任便轉移到了汽車上的駕駛員身上。

在這部法律通過之前,就有很多學者和行業人士對它提出了批評。比如,這部法律使德國的自動駕駛汽車無法實現真正的無人駕駛。因為現在投入生產的很多自動駕駛汽車,它其實根本就沒有方向盤,但這部法律通過之后,這些沒有設計方向盤的自動駕駛汽車就進入不了市場。而且在這部新法之下,司機不知道如何才能避免法律責任,它阻礙了自動駕駛汽車的商業化發展。因為它要求司機必須保持足夠的警覺,在自動駕駛系統請求人工控制時介入以應付緊急狀態,這其實給駕駛員提出了更高的要求,使他即使在干別的事情的時候仍然不能放松自己的警覺。

這部新法還把自動駕駛汽車造成人身傷亡的最高賠償額度提高到了1000萬歐元,將近1億人民幣,比原來的最高賠償額度增加了1倍。雖然這筆賠償在多數情況下由保險公司支付,但保險公司無疑會提高保費,這也增加了自動駕駛汽車車主的負擔。諸多因素就使自動駕駛汽車在德國只能淪為有錢人的玩具,普通人不會把它當成一種代步工具。

與德國立法模式相對照,2017年9月,美國眾議院通過了美國《自動駕駛法案》,采取了一種完全不同的思路。這是第三種思路。它沒有改變現有的道路交通規則和事故責任相關的侵權法規則,而是用憲法和行政法的思維方式劃分了聯邦與各州之間在規制自動駕駛汽車方面的責任,明確了交通部在確立自動駕駛汽車硬件安全標準、網絡安全標準、公眾知情標準等方面的具體義務和履行時間表。

其中第12條強化了隱私權保護,要求制造商和經銷商只有在提出了滿足一系列具體要求的“隱私權保障計劃”的前提下,才可以供應、銷售或進出口自動駕駛汽車。這部法律要求交通部來控制自動駕駛汽車的相關技術標準,但是它并非自己提出標準,相關標準的提出者是業界。誰想去生產和銷售自動駕駛汽車,誰就有義務制定從隱私權保障到網絡安全的一整套標準,交通部只是作為最后的把關者。這樣其實把決策權交給了業界,也是對政府和資本極高的行業要求。因為不懂技術的立法者制定一部全新領域的法律,很可能會犯一些低級的錯誤,完全遏制這個產業的發展。

與上述約束自動駕駛汽車制造者和使用者的規范不同,德國交通部長任命的倫理委員會提出的一個報告又展現出了另一種思路,可以說這是第四種思路。這種思路要求算法也就是軟件的編寫者遵守一系列的倫理法則,其中提出了20條很具體的倫理指導意見,可以說是抓住了問題的重點,因為他看到算法才是人工智能系統的靈魂。比如第7條要求,在被證明盡管采取了各種可能的預防措施仍然不可避免危險的情況下,保護人的生命在各種受法律保護的權益中享有最高的優先性。因此,在技術上可行的范圍內系統必須被編程為在權益沖突時可以接受對動物和財產的損害。同時第8條規定,諸如傷害一個人以避免對其他更多人的傷害這樣的倫理難題不能通過事先編好的程序來處理,系統必須被設定為出現這種情況的時候請求人工處理。所以,這個方案是直接把規制的層面落實到了算法上面,它要求編寫者把相關的倫理規則寫進算法。

 

總結

為了更好地應對人工智能帶來的新風險,在保護創新的同時確保人類生活的品質,法律發展可能應該包括以下這樣幾個向度。

首先,現有的法律模式沒有擺脫傳統的具象化乃至擬人化的思維方式,僅僅將有形的智能化機器或機器人納入規制范圍。但是這些有形的機器人只是人工智能的一種表現形態。其實它們都受一種無形的、彌散化的智能的控制。這種被稱為合成智能的由算法、網絡和大數據組成的無形無界的存在才是人工智能的智能所在。

其次,為了做到這一點,政府應當在發展人工智能方面加大投入,吸收更多的人工智能人才參與立法、行政和司法工作,避免使自己遠遠落后于商業力量。因為現在商業力量在人工智能發展方面已經遠遠地超過了政府,而政府不得不大量地借助商業機構開發的軟件,政府在這時就很可能會被商業機構所操縱。一方面,我們要讓越來越多的法律人進入商業機構去介入它的算法設計。另一方面,政府本身也應該越來越多地吸收人工智能人才,包括公、檢、法都應該配備自己專門的技術人員,而不僅僅是去購買企業所開發的人工智能產品。這在我國相對來說比較容易做到,因為頂尖的大學和科研機構都是國家資助和管理的。而如果這些人才中大多數都轉而為商業機構服務,不僅無法體現社會主義的優越性,也不利于讓人工智能向服務于社會公共利益的方向發展。

再次,從現有的各國立法模式來看,歐盟和德國直接修改民事規則和交通法規的做法是在事實不清、需要解決的問題不明朗的情況下作出的倉促選擇,既不利于鼓勵創新,也不利于保障公民的權利。在目前這個階段比較穩妥的方案是指定一個現有的政府部門負責確立相關的行業技術標準、安全標準和個人數據保護標準。但是,這個標準本身不應當是自上而下強加給行業,而應該是由行業自己來提出。政府只是作為一個把關者,在最后通過的時候需要邀請行業專家學者還有業界人士共同來參與評估企業自己所提出的這些標準是不是符合公共利益,這也是非常重要的一個方面。

最后,德國的自動駕駛汽車程序設計倫理規范是一個可取的思路。由于人工智能的核心在于算法,算法的設計決定著智能化機器的行為。而對于普通人和大多數立法者、執法者和司法人員來說,算法都是一個黑箱,人們只能看到它所導致的結果,卻無法看到它的運行過程。制定相關規則來約束算法設計者的行為,在發生可疑后果的時候要求程序員用自然語言來解釋算法的設計原理,并且追究其相關責任,這顯然是一種治本之法。因為算法只要是人設計的,它就符合一定的人類目的,就都是用自然語言可以說清楚的。并不見得法律人都必須去學習編程,但是你必須懂得人工智能的技術原理以及它哪些方面可能出錯,將來我們就可以要求程序員用自然語言來說明它編程的原理。也就是說,本來是可以防范、防止某種危害的,你沒有在算法當中寫入防止這種危害的程序,那么就要承擔相關的責任。不愿意解釋或認為解釋不清楚,都只是一種推托之詞。

鑒于人工智能對人類社會的影響越來越大,我建議應像普及法律知識一樣普及人工智能知識。但是,在人工智能知識像普法一樣被普及開來之前,一個過渡性的做法是設立由相關領域專家和法律職業人士共同組成的倫理委員會或者“人工智能法院”,按照風險防范而不是糾紛解決的思路來處理相關規則的設計和落實問題。也就是說現在倉促地立法可能還為時過早,但是相關的討論、正式的公共政策討論應該納入議事日程。

責任編輯:華軒 來源: 今日頭條
相關推薦

2018-06-07 15:22:58

人工智能大數據比較

2020-03-25 09:51:55

人工智能技術機器

2018-06-06 14:21:36

人工智能大數據數據處理

2023-08-24 10:05:30

人工智能開發測試

2022-09-21 11:41:27

人工智能AI

2024-01-08 07:46:20

人工智能敏感信息數據收集

2023-03-20 16:08:27

2022-10-13 14:48:53

人工智能proptech智能家居

2018-03-29 11:11:32

人工智能大數據開發

2018-04-15 10:00:29

大數據 AI 云計算

2017-07-13 10:35:35

人工智能大數據開發

2018-04-12 16:58:15

大數據人工智能云計算

2023-08-20 12:23:39

人工智能大數據

2018-06-14 16:01:10

2022-06-20 11:05:58

通用人工智能機器人

2023-06-05 16:39:30

2017-05-27 14:55:41

人工智能軟件架構

2020-09-30 19:50:03

人工智能

2018-12-17 13:06:25

數據人工智能分析

2021-01-04 10:49:46

人工智能大數據
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲码欧美码一区二区三区 | 国产婷婷精品 | 日本午夜精品一区二区三区 | 中文字幕日韩一区 | 国产亚洲一区二区三区 | 成人在线视频免费看 | 四虎永久免费地址 | 一本一道久久a久久精品蜜桃 | 99久久国产免费 | 妹子干综合| 瑞克和莫蒂第五季在线观看 | 亚洲色图综合 | 精品国产一区一区二区三亚瑟 | 97在线观视频免费观看 | 在线不卡 | 中文字幕日韩欧美一区二区三区 | 综合伊人 | 欧美视频中文字幕 | h视频在线播放 | 国产高清一区二区 | 超碰免费观看 | 午夜影院中文字幕 | 日韩精品视频中文字幕 | 欧美一级片 | 久久9视频 | 久久毛片| 午夜伦理影院 | 337p日本欧洲亚洲大胆鲁鲁 | 国产东北一级毛片 | 亚洲精品免费视频 | 国产色| 黄网址在线观看 | 午夜丁香视频在线观看 | 日本亚洲欧美 | 久久精品中文 | 特级黄一级播放 | 亚洲欧美在线观看视频 | 欧美日韩国产一区二区三区 | 中文区中文字幕免费看 | 成人免费淫片aa视频免费 | 免费国产视频在线观看 |