可能再也沒有一項(xiàng)生物識別技術(shù)如“刷臉”被大規(guī)模應(yīng)用時這樣備受關(guān)注了。
開創(chuàng)了生物識別技術(shù)落地應(yīng)用先河的指紋識別技術(shù)剛登場時風(fēng)頭無限,數(shù)不清的企業(yè)入局、拓展應(yīng)用,做到后來,慢慢發(fā)現(xiàn),好像指紋識別技術(shù)再怎么擴(kuò)展也就只能做個驗(yàn)證模塊,適用面廣不假,市場需求量大不假,但是總在這一畝三分地里玩兒,好像不怎么盡興。而后被提出的指靜脈識別、掌紋識別技術(shù),安全性是更高了,作為驗(yàn)證模塊也更讓人放心,但冥冥中有個聲音越來越大:生物識別技術(shù)不該只是為了驗(yàn)證而存在啊!
再到后來,“接觸式”和“非接觸式”生物識別技術(shù)的概念被人熟知,指紋、指靜脈、掌紋被歸類為“接觸式”,而人臉、虹膜、步態(tài)等被歸類到了“非接觸式”里。從那時起,人們就在探討兩類生物識別技術(shù)的異同與應(yīng)用場景的差異。
近年來,隨著前端設(shè)備超高清化的普及,“非接觸式”生物識別技術(shù)正在逐步落地。其中,人臉識別技術(shù)被寄予了更多厚望。
狹義上的“刷臉”,廣義上的“人臉識別”
說起人臉識別,可能大部分人想到的會是刷臉開門禁、刷臉支付、刷臉解鎖手機(jī),也可能有一部分人體驗(yàn)過刷臉進(jìn)火車站、登機(jī)的高科技,如果還有人知道刷臉取錢、刷臉當(dāng)電子身份證,那已經(jīng)是了不起的“消息通”了。然而,這些就是人臉識別的全貌嗎?當(dāng)然不是,這些只是狹義上的“刷臉”。
本文一開篇就提到了“可能再也沒有一項(xiàng)生物識別技術(shù)如人臉識別被大規(guī)模應(yīng)用時這樣備受關(guān)注了?!比绻f的只是“刷臉”的話,那它和其他生物識別技術(shù)沒太大區(qū)別:不都是驗(yàn)證嗎?但要是說到人臉識別,那就不一樣了。
與大數(shù)據(jù)的結(jié)合,使人臉識別技術(shù)有了更廣泛的應(yīng)用。以公安應(yīng)用為例,公安部門在查辦案、處理事務(wù)時常常會遇到一些不明身份的人員,比如走丟的老人、小孩,拒不交代身份的嫌疑犯,無人認(rèn)領(lǐng)的尸體等。這時傳統(tǒng)的方法往往不能解決問題。利用人臉檢索系統(tǒng),將目標(biāo)人臉輸入到系統(tǒng)中。系統(tǒng)自動在海量人口數(shù)據(jù)庫中進(jìn)行查找比對,列出前若干名相似的人員信息。然后再通過人工干預(yù)的方式,對系統(tǒng)結(jié)果進(jìn)行篩選,得到目標(biāo)的真實(shí)身份。
在這一個應(yīng)用的背后,是人臉識別技術(shù)日益成熟的標(biāo)志,作為自帶AI落地基因的安防行業(yè)(數(shù)據(jù)大、高試錯容忍度),這幾年,天網(wǎng)工程廣泛鋪開、智能系統(tǒng)全局應(yīng)用,城市秩序得到了更為高效的管理和防護(hù),民生需求得到了更為及時的處理和反饋,違反亂紀(jì)的行為能被精準(zhǔn)識別和處罰。
與此同時,人臉識別應(yīng)用也在受著非議
6月21日,《華爾街日報》發(fā)表的一則文章認(rèn)為,盡管亞馬遜CEO貝索斯表示,將抵制試圖從該公司所生產(chǎn)設(shè)備中獲取個人信息的政府調(diào)查人員,但該公司卻在向私企和執(zhí)法機(jī)構(gòu)等推銷人臉識別技術(shù),許多人認(rèn)為,這一技術(shù)的使用將威脅到個人隱私。
在他們看來,將人臉識別技術(shù)應(yīng)用到前端視頻監(jiān)控?cái)z像機(jī)上,可能會打破隱私及實(shí)用性之間的平衡。假設(shè)美國警方有若干臺這樣的安防攝像機(jī),同時擁有可疑人員的“黑名單”照片庫,那么其他任何人如果與這些可疑人員有一些相像,一旦進(jìn)入警察的安防攝像機(jī)的鏡頭之內(nèi),都有可能受到警務(wù)人員的盤問。而大多數(shù)美國人不希望生活在那樣的世界里。
前段時間,一個人臉識別揭示罪犯長相的研究也引起了軒然大波。上海交通大學(xué)的研究人員收集了1856個18-55歲的中國公民照片,不同種族、性別、年齡甚至是不同的面部表情,其中選取的730人均是已定罪的罪犯,隨后利用人工智能技術(shù)對犯罪進(jìn)行研究,并最終得出結(jié)論:
犯人上唇的彎曲度會比普通人平均高出23%;
犯人雙眼內(nèi)眼角之間的距離比普通人窄6%;
犯人的鼻尖與嘴角之間形成的角度比普通人小20%。
計(jì)算機(jī)通過4種算法對這些公民面部特征進(jìn)行分析,推斷出罪犯的共同面部特征。論文結(jié)論:人工智能根據(jù)長相找出罪犯的準(zhǔn)確性高達(dá)89.51%。
這一高科技研究一經(jīng)披露,立即遭到網(wǎng)友的指責(zé),認(rèn)為如果這項(xiàng)技術(shù)應(yīng)用于現(xiàn)實(shí)世界,很有可能讓好人蒙受不白之冤,而讓真正的壞人逍遙法外。
如果說前面兩件事是隱私上的問題,那么下面這件就是技術(shù)上的問題了。
最近有文章指出如今非常熱門的AI應(yīng)用人臉識別,針對不同種族的準(zhǔn)確率差異巨大。其中,針對黑人女性的錯誤率高達(dá)21%-35%,而針對白人男性的錯誤率則低于1%。
對此,有相關(guān)產(chǎn)品廠商回應(yīng)稱,深膚色人種識別錯誤率高是普遍現(xiàn)象,一是深色人種數(shù)據(jù)集的缺乏,二是深色人種人臉特征較難提取。
反人臉識別產(chǎn)品問世
近日,多倫多大學(xué)教授ParhamAarabi和他的研究生AvishekBose開發(fā)了一種算法,通過對圖像進(jìn)行“光轉(zhuǎn)換”,可以動態(tài)地破壞人臉識別系統(tǒng)。
這位大學(xué)教授也是基于隱私問題,給出了發(fā)明該產(chǎn)品的原因,“隨著人臉識別技術(shù)越來越先進(jìn),個人隱私成為了一個真正急需解決的問題,這就是反人臉識別系統(tǒng)被研發(fā)的原因,也是該系統(tǒng)的用武之地。”
根據(jù)Aarabi的說法,他們主要采用了對抗訓(xùn)練(adversarialtraining)技術(shù),使得兩個神經(jīng)網(wǎng)絡(luò)相互對抗,一個神經(jīng)網(wǎng)絡(luò)從數(shù)據(jù)中獲取信息(人臉數(shù)據(jù)),另一個神經(jīng)網(wǎng)絡(luò)試圖去破壞第一個神經(jīng)網(wǎng)絡(luò)執(zhí)行的任務(wù)。
據(jù)悉,他們的算法是在包含不同種族,不同光照條件和背景環(huán)境下的超過600張人臉照片的數(shù)據(jù)集上進(jìn)行訓(xùn)練的(業(yè)界標(biāo)準(zhǔn)庫),兩個神經(jīng)網(wǎng)絡(luò)相互對抗會發(fā)形成一個實(shí)時的“過濾器”,它可以應(yīng)用到任何圖片上。因?yàn)樗哪繕?biāo)——圖像中的單個像素是特定的,改變一些特定像素,肉眼是幾乎無法察覺的。比如說檢測網(wǎng)絡(luò)正在尋找眼角,干擾算法就會調(diào)整眼角,使得眼角的像素不那么顯眼。算法在照片中造成了非常微小的干擾,但對于檢測器來說,這些干擾足以欺騙系統(tǒng)。
其實(shí),破壞人臉識別產(chǎn)品識別率的產(chǎn)品并不少見。早在2016年,卡內(nèi)基梅隆大學(xué)的研究人員就設(shè)計(jì)了一種眼鏡框,可以誤導(dǎo)面部識別系統(tǒng),使其產(chǎn)生錯誤的識別。
總結(jié)
關(guān)于人臉識別的熱點(diǎn),筆者粗略講了一遍,你要問我怎么看,我會說:陽光之下并無新事,大數(shù)據(jù)時代也沒有太多隱私,關(guān)鍵還得看企業(yè)的道德觀和政府的監(jiān)管。至于反人臉識別系統(tǒng)和人臉識別技術(shù)的斗法,筆者很高興看到這種事的發(fā)生。一矛一盾,互為博弈,才能查漏補(bǔ)缺、完善技術(shù)。
來源:慧聰安防網(wǎng)