人臉識別技術被套上“枷鎖”?技術還需等一等制度
文/東方亦落
以后在公共場合不能隨意使用人臉識別技術了?近日,歐盟以377:248的投票結果通過了一項決議——禁止警方在公共場所使用面部識別技術,并對其使用人工智能進行預測性警務活動實施嚴格的限制措施。
無獨有偶,中國也采取了一系列相關措施。去年10月,備受矚目的《個人信息保護法(草案)》在中國人大網公布,向社會征求意見。主題是對于在公共場所中的圖像采集、個人身份識別設備做出規定:例如所收集的個人圖像、個人身份特征信息只能用于維護公共安全的目的,不得公開或者向他人提供等。
看起來大熱的人臉識別技術正在被套上越來越重的“枷鎖”。但此前人們對人臉識別技術還持有一種積極的、完全開放的態度,為何現在卻是如此對待呢?
從技術層面來看,人臉識別技術在歐洲對LGBT人士、少數民族、婦女、老年人都進行過錯誤的辨認,這就造成了該技術經常產生歧視的結果。很多人并不希望自己的個人信息被泄露,他們會擔心隱私保護措施不到位、數據被隨意篡改,由此產生失控的后果,甚至還有人擔心人工智能有一天掌握了充足的人類信息之后會統治世界。
除了政府之外,巨頭也采取了相關措施。例如2020年2月,德國工業巨頭博世發表了《AI道德準則》,提出將人工智能限制在安全、可靠、可解釋的范圍之內,認為人類應始終保留對人工智能的控制權。
普華永道的一份報告顯示,自2018年以來,歐洲各種組織共發表了44份報告,對“人工智能倫理”提出了建議,看起來歐洲已經下定決心要把人工智能關進“牢籠中”。
而在中國,人臉識別技術在公共場所的應用過程中也沒少“惹禍”:某房地產商在售樓中心使用人臉識別技術對顧客進行分析,以便更精準地賣房;杭州野生動物世界要求年卡用戶刷臉入園,因此被告上法庭,成為“中國人臉識別第一案”;某些小區為方便管理,強制居民使用人臉識別門禁等。
其實人們對人臉識別的擔憂,主要來源于其技術普及程度過快,但實際上并不成熟,以及政策與法律的滯后所產生的風險。沒有足夠的約束,沒有明確的界定,導致信息透明度不足,公眾就無法知悉自己的數據究竟歸屬誰手、會被用于何處,這在當今這個隱私本就難保的世界必然會引發更大的擔憂。
總的來看,人臉識別技術雖好,但沒有限制的狂奔,不論對技術今后的發展還是人們的隱私安全都是弊大于利的。就像歐盟委員會所說的,人工智能發展迅猛,但也要應對一系列潛在的風險。“技術必須遵從人民的權利”,因此現階段只能給它套上“枷鎖”,用這種強制性的手段讓人臉識別技術等一等政策和法規,這也是為了該技術以后更廣闊的前景以及人類的安全著想。