向偏見和不平等說不!微軟停止提供有爭議的面部識別服務
微軟公司表示會逐步停止對旗下一些由人工智能驅動的面部識別工具的訪問,包括一項基于視頻和圖像識別情緒的服務。
微軟在日前宣布這一決定的同時還公布了一份27頁的“負責任的人工智能標準”,標準解釋了微軟在公平的和值得信賴的人工智能方面的目標。微軟為了達到這些標準而限制了一些面部識別工具的訪問,包括旗下的AzureFace API、計算機視覺和視頻索引器服務提供的面部識別工具。
微軟表示,新用戶將不會有機會使用這些功能,而現有客戶則必須在今年年底前停止使用這些功能。
面部識別技術已經成了民權和隱私團體的一個主要關注點。此前的研究表明,面部識別技術遠非完美,經常大比例地誤判女性對象及皮膚較黑的人。這在人工智能用于識別犯罪嫌疑人和其他監控情況時可能會導致很大的潛在問題。
而檢測情緒的人工智能工具的使用則更是具爭議性。今年早些時候,Zoom Video Communications Inc曾宣布考慮增加“情感人工智能”功能,隱私組織Fight for the Future其時曾發起一項運動敦促Zoom不要這樣做,因為擔心該技術可能被濫用。
圍繞面部識別的爭議得到各科技公司的重視,亞馬遜網絡服務公司和Facebook的母公司Meta Platforms Inc.都在縮減對此類工具的使用。
微軟首席人工智能負責人Natasha Crampton在一篇博文中表示,微軟認識到要使人工智能系統值得信賴,人工智能系統必須是其所要解決的問題的適當解決方案。Crampton表示,面部識別則被認為是不合適的解決方案,微軟將擱置推斷“情緒狀態和身份屬性,如性別、年齡、微笑、面部毛發、頭發和化妝”的Azure服務。
她還表示,“人工智能系統有可能加劇社會偏見和不平等,可以說是有關這些系統的最廣泛認可的危害之一。我們的法律還沒有跟上人工智能的獨特風險或社會需求。我們看到有跡象表明政府在人工智能方面的行動正在擴大,但我們也認識到我們有責任采取行動?!?/p>
分析師們對于微軟的決定是否是一個好決定的看法存在分歧。Pund-IT公司的Charles King告訴記者,除了面部識別技術的爭議之外,人工智能歸類剖析工具的效果也往往不盡如人意,很少能達到其創造者所聲稱的效果。King表示,“同樣重要的是,尋求更好生活的難民及有色人種在這么多地方受到攻擊,歸類剖析工具被濫用的可能性非常大。因此,我相信微軟限制這一類工具使用的決定是非常合理的?!?/p>
而Enderle集團的Rob Enderle則表示,看到微軟退避面部識別令人失望,這種工具已經從早期的許多錯誤中取得了很大的進展。他表示,圍繞面部識別的負面宣傳已經迫使一些大公司遠離該領域。
Enderle表示,“基于人工智能的面部識別技術對于抓捕罪犯、恐怖分子和間諜來說太有價值了,所以政府機構也不會停止使用這種技術。然而,微軟的退避意味著他們最終將使用來自專業防務公司或外國供應商的工具,這些工具的效果很可能不會太好,而且也缺乏相同種類的控制。妖怪已經放出來了,再扼殺面部識別技術只會令整個社會不能從中獲益?!?/p>
微軟表示,旗下負責任的人工智能標準并不局限于面部識別。微軟還會將這些標準應用于Azure人工智能定制神經語音,Azure人工智能定制神經語音是一種語音到文本的服務,可用于支持轉錄工具。微軟的解釋是,2020年3月的一項研究發現,非裔美國人和黑人社區使用該軟件時錯誤率較高,鑒于此,微軟已經采取措施改進該軟件。