從線上支付、考勤打卡到抓捕逃犯,不可否認,面部識別技術已經(jīng)深入到我們?nèi)粘I畹姆椒矫婷?但同時,它也存在爭議,隱私問題一直是眾多AI技術需要面對的難題。近日,亞馬遜因向執(zhí)法機構(gòu)提供面部掃描技術而成為頭條新聞。
對人工智能監(jiān)視系統(tǒng)的擔憂,促使研究人員開發(fā)了一種針對它們的工具。近日多倫多大學教授帕勒姆·阿比拉和研究生阿維舍克·博斯發(fā)明了一種算法,可讓人臉識別率降至0.5%。
有了這項“反人臉識別”技術,我們能夠決定自己的臉是否會被識別嗎?
其實這種反人臉識別技術早在前幾年就已出現(xiàn)。2016年11月,卡內(nèi)基梅隆大學研究人員開發(fā)出一款反面部識別眼鏡。這種造價0.22美元的特制眼鏡可以用光滑的照片紙打印,團隊稱,眼鏡可讓攝像頭前的人顯示成為另一個人,在對商用級臉部識別軟件的測試中,誤認人臉的成功率達到100%。
2017年,麻省理工學院和日本九州大學的研究人員創(chuàng)建了一種叫做EOT(Expectation Over TransformaTIon)的算法,成功騙過谷歌AI系統(tǒng),讓系統(tǒng)將一幅3D打印的海龜照片標記為步槍,將3D棒球認成濃縮咖啡,而可愛的貓咪則有時被當做鱷梨醬。
有研究人員擔憂,AI對3D物品的錯認,以及被設計用來欺騙機器視覺系統(tǒng)的對抗性圖像技術的突破,讓面部識別系統(tǒng)正面臨新一輪挑戰(zhàn)。在上述實驗中,將烏龜錯認成步槍正是對抗性圖像的一個例子,多倫多大學教授帕勒姆·阿比拉使用的也是這種方法。
勒姆·阿比拉在最近發(fā)表的《基于約束最優(yōu)化的神經(jīng)網(wǎng)絡的反面部識別系統(tǒng)》中介紹,他們在一個超過600張臉的行業(yè)標準庫中進行了系統(tǒng)訓練,用于測試的600張臉包含了不同種族、不同光照條件以及不同環(huán)境。
文章第一作者阿維舍克·博斯在接受媒體采訪時也表示,測試的關鍵在于訓練兩個神經(jīng)網(wǎng)絡相互對立,一個創(chuàng)建越來越強大的面部檢測系統(tǒng),而另一個創(chuàng)建更強大的工具來破壞面部檢測。
現(xiàn)代臉部識別軟件主要依賴于深度神經(jīng)網(wǎng)絡——一種從大量信息中學習模式的人工智能技術。在被呈現(xiàn)過數(shù)百萬張人臉之后,該類軟件就能習得臉部概念,懂得如何分辨不同的臉?!斑@種反面部識別系統(tǒng)實際上就是通過生成式對抗網(wǎng)絡去形成一個最小最優(yōu)的變化,從而對現(xiàn)在面部識別的深度網(wǎng)絡進行攻擊?!敝锌埔曂?北京)科技有限公司CEO劉昕說,但這種探索更多地還處于學術研究階段。
劉昕說,上面提的一些反面部識別系統(tǒng),訓練過程要求識別人臉的網(wǎng)絡是公開的,并且攻擊次數(shù)是不受限制的,而在實際中,這顯然難以實現(xiàn)。在實際環(huán)境中,面部識別系統(tǒng)是一個隱蔽系統(tǒng),而且也不會允許被這樣反復攻擊。
“反人臉識別技術的誕生實質(zhì)是對于隱私的擔憂?!眲㈥空f,目前,人工智能產(chǎn)業(yè)尚處于初級階段,技術的發(fā)展都具有兩面性,如何防止人們利用AI技術進行破壞行為是整個行業(yè)都需要思考的問題。
劉昕認為,這不僅需要立法層面的支持,也需要倫理方面的討論。同時對人工智能人才也要進行道德倫理教育,在立法的同時,通過行業(yè)自律來規(guī)避隱私泄露的風險。