首頁>要聞 要聞
“刷臉”究竟有多靠譜
新華社北京8月6日電新聞分析:“刷臉”究竟有多靠譜
新華社記者李宓
2009年,多名美國亞裔消費者投訴,尼康相機的“眨眼提醒”功能總是錯誤地提示他們拍照時眨眼了;2015年,美國谷歌公司基于面部識別技術(shù)開發(fā)的一種圖片應(yīng)用,將一位用戶的黑人朋友標記為“猩猩”。
面部識別技術(shù)越來越先進,并不斷滲透我們的日常生活。一些人樂觀地認為,“刷臉”時代正在向我們走來。可是,“刷臉”真的靠譜嗎?至少從目前看,還得打上一個問號。
準確度欠缺
最近一段時間,“刷臉”接二連三地出糗。
在美國,有機構(gòu)使用亞馬遜公司的面部識別系統(tǒng)掃描了535名國會議員的面部照片,并與相關(guān)數(shù)據(jù)庫中的2.5萬張罪犯照片比對,結(jié)果28名議員被系統(tǒng)識別為罪犯。
英國多個城市的警方開始試應(yīng)用面部識別技術(shù)。但最近公布的有關(guān)數(shù)據(jù)顯示,倫敦警方使用的面部識別系統(tǒng)錯誤率高達98%,被批評為“幾乎完全不準確”。倫敦警察局局長克雷茜達·迪克對此辯護說,她不認為這項技術(shù)會帶來大量逮捕行動,但公眾“期待”執(zhí)法機構(gòu)測試使用面部識別技術(shù)。
英國警方曾將面部識別技術(shù)應(yīng)用在音樂會、節(jié)日慶典或足球賽等場合。據(jù)英國媒體報道,在威爾士加的夫舉行的2017年歐洲冠軍聯(lián)賽決賽中,警方使用的面部識別系統(tǒng)產(chǎn)生2400多次匹配,其中2200多次是“假陽性”匹配,即把普通人錯認為犯罪嫌疑人。
美國麻省理工學院“媒體實驗室”研究人員測試了微軟、IBM(國際商用機器)和中國曠視科技3家公司的面部識別系統(tǒng),讓3個系統(tǒng)判斷1270張圖片中人物的性別。結(jié)果顯示,3個系統(tǒng)對膚色較淺男性的判斷錯誤率都低于1%,識別效果較好;但對膚色較深女性的判斷錯誤率從21%到35%不等,識別效果差。
訓練數(shù)據(jù)不理想
對于“媒體實驗室”的研究,IBM公司沃森和云平臺業(yè)務(wù)首席架構(gòu)師魯奇爾·普里說,人工智能系統(tǒng)深度學習的有效性有賴于訓練的基礎(chǔ)數(shù)據(jù)。即使人工智能模型本身設(shè)計優(yōu)異,不理想的訓練數(shù)據(jù)只能導致高錯誤率及帶有偏見的判斷。曾有研究顯示,在美國廣泛使用的一套面部識別系統(tǒng)訓練數(shù)據(jù)中,超過75%的圖像為男性,超過80%的人為白人。
英國《自然》雜志在近期一篇評論文章中也指出,無論在學術(shù)界還是產(chǎn)業(yè)界,開發(fā)出復(fù)雜算法會廣受贊譽,但相對而言,很少有人關(guān)注數(shù)據(jù)如何收集、處理和歸類。導致人工智能產(chǎn)生偏見的一個主要因素,就是訓練所使用的數(shù)據(jù)質(zhì)量不佳。
麻省理工學院人工智能研究人員喬納森·弗蘭克爾認為,很多用于面部識別的圖片質(zhì)量不佳,尤其是那些街頭監(jiān)控攝像頭拍下的圖片,也是導致面部識別技術(shù)在實際應(yīng)用上經(jīng)常出錯的一個重要原因。
憂心隱私安全
除本身存在技術(shù)問題,面部識別大量使用還引發(fā)了對個人隱私的擔憂。美國喬治敦大學法律中心一份關(guān)于技術(shù)與隱私的報告顯示,美國目前有16個州允許美國聯(lián)邦調(diào)查局使用面部識別技術(shù),將犯罪嫌疑人照片與相關(guān)數(shù)據(jù)庫中的駕照照片進行比對。
美國數(shù)字化權(quán)利保護組織電子前沿基金會的詹妮弗·林奇說,很多人并不同意警方在尋找罪犯時比對自己的照片,他們并不知道州政府有這種政策。
出于對隱私和安全的擔憂,一些人甚至研制推出了反監(jiān)測裝備。德國人亞當·哈維曾在德國混沌通信大會上介紹了自己研制的“假面”產(chǎn)品,比如在衣服上繪制起迷惑效果的圖案,讓面部識別系統(tǒng)難以識別真實的臉。
編輯:秦云
關(guān)鍵詞:面部識別 刷臉 美國 靠譜