2020年度全球十大人工智能治理事件
當前,新一代人工智能技術在全球蓬勃興起,迅猛發展,與大數據、區塊鏈、5G等新技術相互融合、相互因應,為經濟社會發展尤其是數字經濟發展注入新動能,正在深刻改變社會生產生活方式。與此同時,如何在新技術變革浪潮中始終立于主動,實現人工智能等前沿科技領域有效治理,確保其持續健康發展,也隨之成為一個國際國內、社會各界都廣泛關注的重大現實問題、重大時代議題。
人工智能治理是復雜性、系統性很高的社會議題,涵蓋政策、技術、產業、法律、傳播、倫理、安全、國際關系、意識形態等諸多領域。與之相應,對國際國內人工智能治理標志性事件開展研究,也必然需要各界協同,共同推動。為此,人民智庫與曠視AI治理研究院成立聯合課題組,共同開展“2020年度全球十大人工智能治理事件”遴選、評議,組織相關領域權威專家學者,從AI與公眾福祉、AI與公平正義、AI政府(企業)治理、AI系統安全性與數據隱私安全等四個主要維度出發,依據理論價值、實踐價值、新聞價值、研究價值等四個評價標準進行評議,并面向社會公眾開展在線問卷調查,對人工智能產業領域從業者,相關部委、行業協會領導專家等典型群體進行深入訪談。經綜合各方面資料、數據、意見、觀點,最終得出2020年度全球十大人工智能治理事件。
這些事件,反映人工智能治理領域實踐探索和前沿趨勢,反映新一代人工智能技術的廣泛應用前景,反映公眾對AI(人工智能)治理,引導科技向善,助力政府、機構、企業的多層次、多樣化參與,通過新一代信息技術的良性發展增進人類福祉、改善民生的熱切期待。
1
AI成“監工”:算法下外賣騎手挑戰交通規則,“助手”可能變“殺手”
得票率:51.2%
案例描述:
為提高配送效率,一些外賣平臺研究開發了實時智能配送系統。借助AI算法,平臺可以最優化地安排訂單,也能給騎手規劃最合理的路線。但出于平臺、騎手和用戶三方效率最大化的目標,AI算法將所有時間壓縮到了極致,為了按時完成配送,騎手們只能用超速去挽回超時這件事。超速、闖紅燈、逆行……外賣騎手挑戰交通規則的舉動是一種逆算法,是騎手們長期在系統算法的控制與規訓之下做出的不得已的勞動實踐,而這種逆算法的直接后果則是——外賣員遭遇交通事故的數量急劇上升。同時,這也意味著,在很多人類勞動者和AI的協作專業工作中,人類將處在被管轄和被監督之下。(來源:《人物》雜志)
專家點評:
徐云程
曠視首席發展官、曠視AI治理研究院院長
“這個案例雖然講的是外賣騎手,但我們可以思考,當AI算法嵌入到人類社會的方方面面,人類在不知不覺中已經作為一個數據被算法研究,人類每天看到的信息究竟是算法推送還是客觀公正的?當算法的技術不斷臻于完美,商業利益不斷迭代,對人類福祉的影響到底是什么?對AI企業來說,應在早期產品實驗室研究過程和產品化過程中考慮到平等問題;作為個人,在推動AI治理時,應思考如何貢獻更多前瞻性看法。”
梁正
清華大學公共管理學院教授、清華大學人工智能國際治理研究院副院長
“選擇該案例并不是因為這是一個現象級問題,而是可以看出人工智能治理問題不是某一個單一主體可以解決的。我們可以看到,在這個案例里還包括交通規劃、收入保障體系不到位等問題,我的結論是——我們需要一個多元主體共治的治理體系。”
徐勇
哈爾濱工業大學深圳研究生院教授、博導
“AI技術的發展與普及給人類生活帶來了極大的便利,但由于商業驅動產生了以盈利為導向的技術優化,使得勞動人員在技術監管下對現實社會規章制度產生破壞行為。AI技術的應用應有利于人類社會良性發展,我國處于AI技術高速發展的階段,企業以AI技術壓榨人力勞動術來增加商業利益無疑是一種舍本逐末的行為。需要運用法律和道德對AI技術的研發和應用進行約束,正確引導企業的價值觀。在人工智能普及的時代,也應充分保護勞動者的合法權益,人工智能算法的應用在追求效率和利益之外,不可忽略人性與理性,不能讓機器的冰冷碾壓人性的光輝。”
2
人工智能可以翻譯大腦想法將大腦信號轉化為文本數據,“讀懂意識”讓隱私無處遁藏
得票率:50.09%
案例描述:
加州大學JosephMakin博士在《自然神經科學》雜志上發表了研究,其開發了一個系統,可以將大腦活動轉化為文本數據,單句錯詞僅3%。
實驗參與者被要求多次朗讀50個固定句子,研究者們跟蹤了他們講話時的神經活動。這些數據隨后被輸入到機器學習算法中,系統能將每個口述句子的大腦活動數據轉換為數字字符串。不過,由于通過腦機接口翻譯大腦想法的技術對人們的隱私構成了強大的威脅,因此也一直伴隨著不小的爭議。(來源:綜合新浪、鳳凰網)
專家點評:
喻豐
武漢大學哲學學院教授
“機器人實際上是人所創造出的客體,但在未來社會它可能會同人這個本體相脫離,成為本體的存在,而且反客為主,反過來束縛、支配、乃至壓抑人類。我們這些站在食物鏈頂端的人類會在不久的將來面臨前所未有的危機和挑戰,比如算法開始替代人類作出選擇,一些原來只有人類能做的工作將會被機器所取代。”
徐勇
哈爾濱工業大學深圳研究生院教授、博導
“人工智能可簡單看做是一種模擬和擴展人類智慧的科學技術。對人類大腦運行機制的解析,一方面有助于人對自身的深入認知,另一方面有助于人們生活的便捷化與智慧化。上述技術的改進及成熟化應用,也許有助于聾啞人等殘疾人士的交流,助力于他們的生活。但是,假如相應技術被濫用或誤用,也可能使得人們大腦中的想法無任何隱私可言;人類大腦這一“潘多拉盒子”被打開的程度與方式是全社會需要思考的問題。”
3
全國首例:法院認定人工智能生成文章構成作品,擁有著作權
得票率:49.78%
案例描述:
2020年1月,廣東省深圳市南山區人民法院一審審結原告深圳市騰訊計算機系統有限公司訴被告上海盈某科技有限公司侵害著作權及不正當競爭糾紛一案,認定人工智能生成的文章構成作品。此案系全國首例認定人工智能生成的文章構成作品案件。該案明確了人工智能生成物的獨創性判斷步驟,并在如何看待人工智能生成物的創作過程以及相關人工智能使用人員的行為能否被認定為法律意義上的創作行為的問題上做出了探索,認定人工智能生成的文章構成作品,對于今后同類型案件的審理有一定的借鑒意義。(來源:人民網深圳頻道)
專家點評:
盧瑞昌
北京大學光華管理學院金融學助理教授
“這個案例很重要,這是關于法律是如何定義人工智能的。隨著社會發展,未來人工智能在各行業的應用、人工智能的歸屬權、法律是否將其定義為一個法律主體,將是很重要的一個爭執點。”
梁正
清華大學公共管理學院教授、清華大學人工智能國際治理研究院副院長
“這個案例是從法律的層面上討論AI生成作品一事,但我們需要注意到AI可能會對很多產業產生革命性的作用,并且要理性思考AI還可以應用到什么領域。”
4
歐美、韓國相繼出臺AI治理新規,嚴格限制、甚至禁用相關人工智能技術在某些場景的發展和應用
得票率:49.73%
案例描述:
歐盟委員會發布《人工智能白皮書》,希望通過不斷實現科學突破,維護歐盟的技術領先地位并確保新技術在尊重人權的基礎上,改善人們生活。當前歐洲采取了一致的方法來應對AI對人類和社會道德的影響,并思考了如何利用大數據進行創新。歐盟正在考慮禁止在公共場所使用人臉識別技術長達五年,以便有時間研究如何防止這種技術被濫用。歐盟委員會表示,在為期3至5年的禁令期間,“可以確定和制定評估這一技術的影響和可能的風險管理措施的健全方法”。歐盟文件稱,對于安全項目以及科技研發活動,禁令可能會有例外。該文件還建議,對人工智能的開發者和用戶都施加一些義務,歐盟國家的政府應該指定監管機構來監管新規則。
韓國科學技術信息通信部2020年11月27日與情報通信政策研究院(KISDI)共同發布“國家人工智能倫理標準”,提出理想的人工智能開發和運用方向,指出人工智能需以人為中心。在開發和運用人工智能的過程中,需遵守維護人的尊嚴、社會公益和技術合乎目的這3大原則。
此外,美國東海岸城市波士頓通過了禁止面部識別技術用于市政用途的投票。這是自2019年5月舊金山頒布此項禁令以來,采用此項禁令的第二大美國城市。該法令獲得一致通過,這條法令將阻止城市使用面部識別技術或獲得使用該技術進行監視的軟件。此后,俄勒岡州波特蘭、緬因州波特蘭也均通過了類似禁令以限制該技術在政府部門的應用。(來源:綜合鳳凰網等)
專家點評:
薛瀾
清華大學人工智能國際治理研究院院長
“人工智能治理的核心要素中基本價值觀、治理體系、參與者、治理對象以及效果評價五個方面至關重要。很多治理問題可以通過技術本身來解決,目前人工智能發展面臨的最大挑戰是:人工智能技術發展太快,而治理準則作為一種社會體系,其發展有其程序,又是緩慢的,因此,我們需要“敏捷治理”。
人工智能可以學習已有的國際機制,未來不斷加強AI領域的國際合作,我們可以在合作過程中找到各方的共同點,并不斷探討、溝通,一同尋找人工智能共同的準則和規則,引導人工智能的健康發展,為人類造福。”
徐云程
曠視首席發展官、曠視AI治理研究院院長
“這個案例非常重要。2020年談到人臉識別技術,大多是負面消息,AI治理似乎不是一個“為善”問題,而是帶有風險的問題。隨著技術的發展,人們逐漸意識到了技術的一些風險。但值得注意的是,當輿論一邊倒時,對于技術的一刀切其實有待考慮,也要思考歐盟和美國所做決定的合理性以及是否應該仿效。
對于在全世界范圍內人臉識別技術的應用場景與其背后的人類福祉、安全隱私等問題,大家在沒有進行深入探討的情況下,不應過分否定。同時也應考慮,人臉識別技術只是深度學習相對成型和商業應用比較廣泛的一類技術,在新技術不斷成熟的過程中,我們應該用怎樣的方法來解決不斷涌現出的新問題。
個人希望,人臉識別技術能夠為人工智能時代打造一個樣本,即在面對新出現的倫理問題時,不因噎廢食,同時又能建設性地解決問題。中國的人臉識別技術如果能走出這條路,對于我們在全球范圍內提出“中國觀點”是很有幫助的。”
孫明俊
中關村智用人工智能研究院執行院長、中視科技CEO
“面部識別作為自動化分析的代表性應用,在政府部門的應用中與現有的發達國家的法律制度有很大的不兼容性。首先,公眾“棱鏡門”丑聞再次出現的警惕。
2007年美國國家安全局啟動的網絡監控計劃“棱鏡(PRISM)”將任何涉外通訊列為監聽對象。2013年該項目由美國特工愛德華斯諾登曝出。“棱鏡門”直接使得歐洲美國之間的個人數據流通協議作廢,并增加了美國公民對政府的不信任。
其次,隱私權,即公權力無權侵入私人生活,是美國公民和歐盟公民最重要的憲法權利。面部識別,結合云計算,具備的強大分析功能,可能會使公權力完整記錄私人行蹤的軌跡成為可能。歐盟法院曾經在“數字權利愛爾蘭”一案中,將政府的大范圍數據分析裁定為非法。
最后,面部識別在公權力的應用是否符合人類中心原則是模糊的。歐盟、日本、韓國和電氣電子工程師學會(美國)的人工智能文件中都提到了人工智能開發的人類中心原則,人工智能開發應以增進人類福祉為目的。但基于統計方法的面部識別技術在公權力,尤其是行政機關,的應用很可能將機器凌駕于人之上。”
5 AI向善,技術預警獨居老人水表及校園暴力行為
得票率:49.69%
案例描述:
“水表”和“老人安全”看似沒有關聯,但在上海市長寧區江蘇路街道“一網統管”平臺,隱藏背后的邏輯清晰可見——當獨居老人家中超過12小時用水不足0.01立方米時,系統會判斷老人家中有事,并及時向居委會預警。一個小小的設計,沒有像攝像頭那樣不得不關注老人過多的隱私,也無需大量的經濟和人力投入,就能實現對老年人的關愛,甚至關鍵時刻能挽救老人的生命。
北京某科技公司生產的校園暴力AI防控語音偵測設備,可以作為視頻監控的彌補而出現在校園安全解決方案當中,為平安校園再添新色彩。該產品通過AI音頻識別,全天候監控異常聲音,自動報警及聲光驅離等技術,重點勘察校園視頻監控“死角”,在校園霸凌事件發生中及時干擾、阻止,制止校園暴力的發生。(來源:北京日報)
專家點評:
張勇
深圳大學教授
“AI技術的落地應用,在一定程度上可有效提升人們生活的安全性,這兩個案例中第一個是通過水表對獨居老人進行安全預警,體現對獨居老人的無感關愛,這對當前促進社會民生改善有一定參考價值。
當然,這個案例中要提高水表計數的敏感度和數據采集的及時性與準確性,才能降低誤報率。第二個案例AI技術應用,可有效減少校園暴力事件的發生,當然,這需要AI技術更智能,包括對異常聲音的識別,這里的異常聲音包括肢體動作發出的聲音、呼救的聲音、威脅的聲音等,并且需要提升拾音效果。另外,采用語音偵測較視頻偵測的另一個好處就是可保護未成年人隱私。”
盧瑞昌
北京大學光華管理學院金融學助理教授
“該案例是用AI防止校園暴力,雖然是一個正面案例,但也要考慮到無限的監聽會引發隱私及對其他問題的擔憂。”
6
美國科技巨頭依據自身道德判斷,加強企業自律及對人工智能技術的監管
得票率:49.55%
案例描述:
據外媒消息,IBM將不再提供、開發或研究面部識別技術,并表示“IBM堅決反對并且不會容忍將任何面部識別技術用于大規模監視、侵犯基本人權和自由或與我們的宗旨不符的任何行為。”此外,亞馬遜、微軟也均表態要支持種族平等,叫停人臉識別:亞馬遜聲明暫停向警方提供人臉識別技術一年時間;微軟也表態停止向警方銷售人臉識別軟件,直到有相關國家法律出臺。
歐盟有關方面和微軟、IBM等科技巨頭共同簽署了《人工智能倫理羅馬宣言》,討論如何規范人工智能的社會影響,這是歐盟推動全球數字經濟監管新標準的最新舉措。與美國不同,在數字經濟和人工智能領域,歐盟采取的是先規范后發展的路徑。《人工智能倫理羅馬宣言》指出,人工智能技術應尊重個人隱私,以可靠而無偏見的方式工作,考慮所有人的需求,并以透明方式運作。這些表述顯示歐盟擔憂人工智能的負面影響,認為人工智能系統尚處于研究階段,其做出的決定往往難以預測。
Google啟動了800多名員工的初始“技術道德”培訓,并還針對AI原則問題發現了新的培訓。Google最近發布了此培訓的一個版本,作為面向客戶的Cloud團隊的必修課程,已有5,000名Cloud員工參加了該培訓。這些員工提出了一些關鍵問題來發現潛在的道德問題,例如AI應用程序是否會導致經濟或教育上的排斥或造成身體、心理、社會或環境傷害。(來源:綜合人民網等)
專家點評:
盧瑞昌
北京大學光華管理學院金融學助理教授
“我們需要思考AI與企業治理的關系,AI倫理如何嵌入到商業運行之中。誰來做企業開發AI算法時的最后判斷者?我們應該從哪個環節切入,思考人工智能所導致的結果。
從防衛意義上講,谷歌提供“技術道德培訓”是很重要的,谷歌的培訓能否應對AI道德倫理的挑戰,力度夠不夠、能否完成,這都是一個爭論點。IBM等公司不再提供、開發或研究面部識別技術也值得關注。
算法在某種意義上會提升商業利益,但也要注意它所帶來的歧視問題。我們需要去思考,如何判斷當人工智能以明確的目標制定出來,為最大化實現某個目標時所導致的歧視問題。”
季衛東
上海交通大學文科資深教授、中國法與社會研究院院長
“谷歌提供“技術道德培訓”的案例涉及到軟法問題。軟法主要指道德,我們可以看到美國的企業已經從道德入手,制定企業內部規則或是技術操作規則。這個案例的研究意義不在于這種現象,而在于其反映的軟法的管理。”
孫明俊
中關村智用人工智能研究院執行院長、中視科技CEO
“2016年6月,歐盟生效了個人數據保護規范《一般數據保護規則》,該《規則》具體規定了個人數據處理的操作規范以及歐盟公民的個人數據流出歐盟的基本條件。其中第22條專門規定了基于個人數據自動化決策和分析(Profiling)的條件。根據該《規則》,任何第三國,作為歐盟公民數據流出的目的地,的個人數據保護標準應等于或者高于歐盟標準。這也是美國科技巨頭不斷提高人工智能隱私保護標準的原因之一。
一方面,對于跨國數字企業,自我規范在企業合規中極為重要。歐盟在《一般數據保護規則》中規定了數據控制方,也即處理數據的責任方需要證明其業務遵守了《規則》中的相關義務。而且歐盟在《一般數據保護規則》中要求在歐盟成員國有業務的企業都應建立組織架構,包括獨立的數據保護官員以及相關機制,確保自我規范的有效性。考慮到歐盟市場是美國科技巨頭利潤的重要來源,美國科技巨頭確保自身業務在《一般數據規則》下的合規極為重要。
另一方面,企業社會責任報告是實現可持續發展目標(Sustainable Development Goals)的重要機制,這種企業自愿報告工具正在逐漸普及。企業社會責任報告是由全球報告計劃(Global Report Initiative)等非盈利組織推動的一種技術工具,報告公司業務對社會、經濟、人權的影響。積極的自我規范在可持續發展目標投資框架下也能夠為企業爭取到更多的公共投資。”
7
自動駕駛服務進入快車道,“無人車”行駛背后的權責歸屬引關注
得票率:48.89%
案例描述:
據不完全統計,我國有融資信息的無人駕駛相關企業超過70家,融資金額高達數百億元。此外,我國共有超過1.2萬件與“自動駕駛”或“無人駕駛”相關的專利,其中于2019年新申請的專利超過3000余件。2020年10月,百度官微發布,自動駕駛出租車服務在北京經濟技術開發區、海淀區、順義區等地全面開放,數十個自動駕駛出租車站點,不需要提前預約,直接下單就能免費試乘自動駕駛出租車服務。2020年6月,滴滴首次面向公眾開放了無人駕駛服務。目前中美兩地已有近400人的團隊,已獲得北京、上海、蘇州、美國加州等地路測資格。(來源:綜合新華網、鳳凰網)
專家點評:
張成崗
清華大學社會治理與發展研究院院長、教授,清華大學社會創新與風險管理研究中心研究員
“智能物聯網發展的原始動力主要來自于對密集的、高變動性的“物的流動”的管理和控制需要。因為要對“物的流動”進行實時優化,所需的管理成本極高,傳統的人工管理方式幾乎不可能實現。
隨著當代人工智能技術的快速發展和廣泛應用,智能物聯網技術使得對“物的流動”的實時管理成為可能,極大地提高了效率、降低了人力成本。同時,智能物聯網技術也為城市管理水平的提高提供了一條可行的技術路徑,其核心是“感知化”“互聯化”和“智能化”,例如,城市交通管理、共享單車管理以及無人駕駛出租車管理等,將商業、運輸、通信、能源等城市運行的各個系統整合為“系統之系統”。”
孫明俊
中關村智用人工智能研究院執行院長、中視科技CEO
“無人駕駛汽車的上路對現有機動車事故民事責任分配提出了新的問題。全球各主要經濟體,在缺乏有效的立法干預前,無人駕駛汽車的事故責任仍采取事故責任人過錯責任制,也即無人駕駛汽車的車主/駕駛員對事故負責。在具體事故涉及到產品責任時,則由車主/駕駛員向制造商進行追索。
美國和歐盟已經開始推動新的立法動議。歐洲議會在立法建議中積極推動根據美國汽車工程師協會定義的汽車自動化水平L1-L4的汽車采取風險責任,并拓展產品責任法的適用。L5-L6級汽車,作為非自動汽車,仍適用過錯責任。民事責任中的風險責任,或稱嚴格責任,是指不考慮責任方的過錯,責任方根據造成的損失進行賠償。而在無人駕駛汽車事故適用產品責任規則時,仍有明顯的障礙。首先,對于無人駕駛汽車這類的復雜工業產品,消費者很難證明產品存在明顯缺陷。其次,產品責任規則并不要求廠商在定型產品時完全避免風險,這也就是說,科學上未知的風險最終仍將是由消費者承擔的。最后,由于無人駕駛汽車技術的復雜性,法院很難形成一致的責任分配標準,進而降低司法確定性。”
張軍平
復旦大學計算機科學技術學院教授
“無人駕駛是未來智能交通的發展方向。目前在封閉道路或慢速行駛時已獲得良好的無人駕駛性能。在高速公路上,也能部分減少駕駛員長時間駕駛形成的疲勞和因此導致的潛在交通事故。
但在開放環境下的自動駕駛方面,距離完全無人的自動駕駛情況還有一定的差距。它不僅體現在傳感器的價格和維護成本高,也體現在處理復雜環境時,仍然存在一些實際場景無法預測和處理的問題,尤其是在國內一些人、機與非機混合行駛的路況下。同時也應考慮事故發生后的倫理問題及相應立法措施。
值得注意的是,著名的電車難題也是自動駕駛面臨的倫理問題。未來智能駕駛時,車與車的聯系、車的控制都可能是建立在智能網上的。因而,還面臨一個如何抵抗攻擊的問題。”
8
人工智能技術突破現有邊界,具備“自主意識”,可實現獨立研發、自我修復等功能
得票率:48.75%
案例描述:
美國麻省理工學院(MIT)科學家在最新一期《細胞》雜志撰文稱,他們新研制出的一種深度學習人工智能(AI),鑒定出一種全新抗生素。實驗室測試表明,這種抗生素能有效殺死多種世界上最麻煩的致病細菌,包括一些對所有已知抗生素耐藥的菌株。
美國佛蒙特大學計算機科學家和塔夫茨大學生物學家共同創造出100%使用青蛙DNA的可編程的活體機器人Xenobot,這種機器人的體長僅0.04英寸(約1毫米),能按照計算機程序設計的路線移動,還能負載一定的重量,攜帶藥物在人體內部移動。Xenobot具有自我修復功能,當科學家把它們進行切割時,機器人會自行愈合并繼續移動。佛蒙特大學表示,這些是“完全新的生命形式”。“它們既不是傳統的機器人,也不是已知的動物物種。它是一類新的人工制品:一種活的可編程生物。”(來源:綜合環球網等)
專家點評:
梁正
清華大學公共管理學院教授、清華大學人工智能國際治理研究院副院長
“這個案例涉及到了人工智能技術的發展前景,這是人工智能治理的基礎,同時也可以讓我們思考人工智能的能力邊界究竟在何處。這個案例也代表了一種技術發展的苗頭,未來是否會有更多活體機器人的出現?這是非常具有沖擊意義的。”
徐云程
曠視首席發展官、曠視AI治理研究院院長
“人工智能不但能替代一些傳統工作,提升效率、促進企業發展,同時也可以做一些單靠人工無法進行的工作,并且為人類未來的幸福生活提供了新的可能性。但我們要注意它的強大性和不可解釋性也帶了一些風險。這個案例體現了新技術的可能性,但在技術早期探索時,我們也要做一個嵌入式倫理的研究與控制。”
季衛東
上海交通大學文科資深教授、中國法與社會研究院院長
“Xenobot這個案例是很特殊的,非常聳人聽聞。這涉及到責任與法律人格認定問題,是否要為活體機器人賦予法律人格平等權,這在AI治理上是具有重要意義的,尤其是在算法黑箱化問題愈發嚴重、問責困難的情況下,這值得我們的重視和思考。”
9 湖南岳陽警方破獲AI犯罪案,技術犯罪仍要懲罰人
得票率:48.75%
案例描述:
湖南省岳陽市岳陽樓公安分局聯合市局網技支隊破獲了一起利用人工智能語音機器人幫助網絡犯罪案,抓獲犯罪嫌疑人19人,查獲了大量作案電腦和手機,扣押涉案現金100余萬元,凍結涉案資金1000余萬元。該團伙利用“AI智能語音機器人”對非法獲取的大批量手機號碼進行撥打,通過“AI智能語音機器人”篩選后,將正在炒股或者有炒股意向的受害人拉入預先建立的虛假炒股微信群,進而實施詐騙。目前,包括黃某在內的12名主要犯罪嫌疑人已全部被公安機關依法刑事拘留,7人被依法治安拘留,相關案情正在進一步深挖之中。(來源:岳陽日報)
專家點評:
張軍平
復旦大學計算機科學技術學院教授
“AI技術具有雙面性,一方面能大幅度減少人力成本,提高工作效率,另一方面也可能為不法分子利用。本例案件采用的技術并不復雜,主要是通過AI智能語音機器人來替代原來的真人詐騙犯,再用真假難辨的虛擬機器人進行智能分析和誘騙。我們需要提高AI應用的準入門檻,進行有效的身份鑒別。同時也要對AI技術的新進展進行持續的關注和跟蹤,以及對潛在的風險如AI偏見、AI換聲換臉等保持一定的警惕性,避免技術被不法分子所利用,危害社會發展。”
10
人工智能首次控制美國軍用系統,或將開啟算法戰新時代
得票率:48.22%
案例描述:
2020年12月15日,美國空軍在加利福尼亞州首次成功使用人工智能副駕駛控制一架U2偵察機的雷達和傳感器等系統,這是人工智能首次控制美國軍用系統,將開啟算法戰的新時代。從三年前開始,美國空軍開始大步向數字化時代邁進。最終開發出軍用人工智能算法,組建了五角大樓第一批商業化開發團隊,編寫云代碼,甚至還建立了一個戰斗云網絡,通過該網絡,美軍以極高的機器響應速度擊落了一枚巡航導彈。(來源:環球網)
專家點評:
劉偉
北京郵電大學人機交互與認知工程實驗室主任、科技委人機融合智能組首席科學家
“人工智能過程不是被動地對環境的響應,而是一種在環境信息的刺激下,通過采集、過濾,改變態勢分析策略,從動態的信息流中抽取不變性,在人機環境交互作用下產生近乎知覺的操作或控制的行為。人工智能技術中的計算是動態、非線形、自適應的,是外界環境、機器和人的認知共同作用的結果,人機系統的特性應該隨著與外界的交互而變化,這對于社會系統中重大事件(戰爭、自然災害、金融危機等)的應急指揮和組織、復雜工業系統中的故障快速處理等問題的解決都有著重要的參考價值。
由于人工智能系統涉及面較廣,極易產生非線性、隨機性、不確定性等系統特征,進行系統建模的研究時面臨著很多困難,我們應針對人機環境系統的實質及人工智能的影響因素這兩個關鍵問題進行深入探討,追根溯源,早日實現高效安全宜人可靠的人工智能系統。”
邱澤奇
教育部長江學者特聘教授,北京大學中國社會與發展研究中心主任
“算法戰的出現意味著人類軍事戰爭一個嶄新階段的來臨,也意味著數字化軍事戰爭的一種形態。在軍事戰爭中,武器,作為人類肢體和智力延伸的工具,一直是戰爭勝負的決定性變量。熱兵器對冷兵器的替代,是武器對人類肢體和體力的延伸;算法和無人機對人的肢體和體力的替代,則是武器對人類智力的延伸,是人類戰爭的第二次本質躍升,并將從此改變戰爭的諸多屬性!”