聯(lián)合國(guó)呼吁在建立保障措施之前禁掉某些人工智能技術(shù)
據(jù)外媒報(bào)道,當(dāng)?shù)貢r(shí)間周三,聯(lián)合國(guó)人權(quán)事務(wù)高級(jí)專(zhuān)員呼吁暫停出售和使用構(gòu)成人權(quán)風(fēng)險(xiǎn)的人工智能技術(shù)--包括國(guó)家使用面部識(shí)別軟件--直到適當(dāng)?shù)谋U洗胧┑轿弧1M管從隱私到種族偏見(jiàn)等諸多擔(dān)憂(yōu)困擾著這一新興技術(shù),但這一請(qǐng)求發(fā)出之際正值人工智能快速發(fā)展期間。
“人工智能可以是一股有益的力量,幫助社會(huì)克服我們這個(gè)時(shí)代的一些重大挑戰(zhàn)。但如果不充分考慮人工智能技術(shù)對(duì)人權(quán)的影響就會(huì)產(chǎn)生負(fù)面甚至災(zāi)難性的影響,”聯(lián)合國(guó)人權(quán)高級(jí)專(zhuān)員Michelle Bachelet于周三在一份聲明中說(shuō)道。
在Bachelet發(fā)出警告的同時(shí),聯(lián)合國(guó)人權(quán)辦公室還發(fā)布了一份報(bào)告。該報(bào)告分析了人工智能系統(tǒng)如何影響人們的隱私權(quán)以及健康、教育、行動(dòng)自由等權(quán)利。
Bachelet補(bǔ)充道:“人工智能現(xiàn)在已經(jīng)滲透到我們身體、精神生活甚至情感狀態(tài)的幾乎每個(gè)角落。人工智能系統(tǒng)被用來(lái)決定誰(shuí)能得到公共服務(wù),決定誰(shuí)有機(jī)會(huì)被錄用,當(dāng)然,它們影響人們看到什么信息,可以在網(wǎng)上分享什么信息。”
該報(bào)告警告了在沒(méi)有盡職調(diào)查的情況下實(shí)施這項(xiàng)技術(shù)的危險(xiǎn),另外還列舉了一些案例如人們因?yàn)橛腥毕莸拿娌孔R(shí)別技術(shù)而被錯(cuò)誤逮捕或因?yàn)檫@些工具的錯(cuò)誤而被拒絕享受社會(huì)保險(xiǎn)福利。
盡管該報(bào)告沒(méi)有提到具體的軟件,但它呼吁各國(guó)禁止任何不能按照國(guó)際人權(quán)法操作的人工智能應(yīng)用。更具體地說(shuō),該報(bào)告呼吁暫停在公共場(chǎng)所使用遠(yuǎn)程生物識(shí)別技術(shù)--至少在當(dāng)局能夠證明符合隱私和數(shù)據(jù)保護(hù)標(biāo)準(zhǔn)、沒(méi)有歧視性或準(zhǔn)確性問(wèn)題之前。
該報(bào)告還抨擊了許多人工智能系統(tǒng)的實(shí)施缺乏透明度以及它們對(duì)大數(shù)據(jù)集的依賴(lài)可能導(dǎo)致人們的數(shù)據(jù)以不透明的方式被收集和分析并導(dǎo)致錯(cuò)誤或歧視性的決定。報(bào)告稱(chēng),數(shù)據(jù)的長(zhǎng)期存儲(chǔ)及未來(lái)如何使用也不得而知,這同樣也是一個(gè)令人擔(dān)憂(yōu)的原因。
Bachelet說(shuō)道:“鑒于人工智能的快速和持續(xù)增長(zhǎng),填補(bǔ)數(shù)據(jù)收集、存儲(chǔ)、共享和使用方面的巨大問(wèn)責(zé)缺口是我們面臨的最緊迫的人權(quán)問(wèn)題之一......我們不能在人工智能方面繼續(xù)追趕--允許其在有限或沒(méi)有邊界或監(jiān)督的情況下使用,并在事后處理幾乎不可避免的人權(quán)后果。”另外他還呼吁立即采取行動(dòng),“為人工智能的使用設(shè)置人權(quán)護(hù)欄”。
數(shù)字權(quán)利倡導(dǎo)組織歡迎該國(guó)際機(jī)構(gòu)的建議,尤其是在許多國(guó)家在執(zhí)行有關(guān)人工智能的聯(lián)邦法律方面滯后的情況下。
非營(yíng)利倡導(dǎo)組織Fight for the Future的負(fù)責(zé)人Evan Greer告訴ABC News,該報(bào)告進(jìn)一步證明了這種新興技術(shù)構(gòu)成的生存威脅。
Greer在接受ABC News采訪時(shí)表示:“這份報(bào)告反映了世界各地的技術(shù)和人權(quán)專(zhuān)家日益增長(zhǎng)的共識(shí):像面部識(shí)別這樣的人工智能監(jiān)控系統(tǒng)對(duì)人類(lèi)自由的未來(lái)構(gòu)成了生存威脅。像核武器或生物武器一樣,這類(lèi)技術(shù)具有巨大的潛在危害,無(wú)法得到有效監(jiān)管,必須予以禁止。”
Greer還補(bǔ)充稱(chēng):“無(wú)論是政府還是企業(yè)等私人實(shí)體,面部識(shí)別和人工智能的其他歧視性用途都可能造成巨大傷害。我們同意聯(lián)合國(guó)報(bào)告的結(jié)論:應(yīng)該立即在全球范圍內(nèi)暫停銷(xiāo)售面部識(shí)別監(jiān)控技術(shù)和其他有害的人工智能系統(tǒng)。”
多項(xiàng)研究表明,由人工智能驅(qū)動(dòng)的面部識(shí)別技術(shù)可能存在種族偏見(jiàn)和假陰性。就在去年夏天,密歇根州的一名黑人男子被錯(cuò)誤地逮捕和拘留,就因?yàn)槊娌孔R(shí)別技術(shù)錯(cuò)誤地將他識(shí)別為入店行竊嫌疑人。
美國(guó)商務(wù)部國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所于2019年的一項(xiàng)全面研究發(fā)現(xiàn),市場(chǎng)上大多數(shù)面部識(shí)別軟件對(duì)亞裔和黑人面孔的假陽(yáng)性匹配率高于白人面孔。英國(guó)2019年的另一項(xiàng)研究發(fā)現(xiàn),被倫敦警察廳使用的面部識(shí)別技術(shù)標(biāo)記的嫌疑人中,81%是無(wú)辜的。






