你的私密照片可能正被“合法”觀看,人臉識別時一定要穿衣服
7 月 3 日消息,今日,數碼博主 @長安數碼君 在社交平臺爆料稱:人臉識別時采集到的區域不僅僅是屏幕顯示頭部,而是攝像頭覆蓋的整個范圍都會上傳到后臺。上傳后會有審核人員看到。如果是第三方 App,有可能會發生信息泄露的情況。
▲你看到的畫面
該博主也表示,有從事后臺審核的朋友對他說在審核工作時:“經常會看到很多人在洗澡的時候、在和“另一半抱在一起的時候”、在沒穿衣服的時候、在進行各種奇奇怪怪動作的時候進行人臉識別。”
▲后臺看到的畫面
在此還是要提醒廣大網友,在日常生活中還是要關注個人隱私保護,注意攝像頭安全。
▲博主微博
今年 6 月 21 日,歐盟數據保護委員會和歐盟數據保護監督局就針對歐盟在 4 月發布的人工智能法規草案發表了聯合意見,呼吁在公共場所禁止使用人工智能自動識別個人特征,包括人臉識別、步態、指紋、DNA、聲音等生物或行為信號。
亞馬遜、微軟等公司已經暫停了人臉識別業務。
在美國,針對政府部門和校園的人臉識別禁令已經落地。自 2019 年 5 月舊金山出臺法令,禁止警察和其他政府機構使用人臉識別技術始,在薩默維爾、波士頓、奧克蘭等多個城市,以及紐約、弗吉尼亞等州,紛紛頒布了類似的禁令。