国产精品久久国产_特级无码一区二区三区毛片视频_在线观看亚洲最大黄色网站_亚洲 中文 自拍_中文无码电影2020_成人片黄网站色大片免费西瓜影院_日本精品在线二区_北京老熟妇偷人偷拍_羞羞色院91精品永久站_欧美日韩国产不卡

  • 服務(wù)熱線(xiàn):13728883399
  • wangyp@shangeai.com

“刷臉時(shí)代”到來(lái),人臉識(shí)別到底有多安全?

時(shí)間:2018-07-24 11:09:40點(diǎn)擊:542次

越來(lái)越多的地方可以刷臉通行了。

據(jù)香港南華早報(bào)報(bào)道,北京的新機(jī)場(chǎng)馬上要采用人臉識(shí)別技術(shù)代替人工安檢系統(tǒng),通過(guò)系統(tǒng)來(lái)捕捉旅客現(xiàn)場(chǎng)的照片與身份證照片進(jìn)行比對(duì),然后把這個(gè)比對(duì)值提供給安檢工作人員,安檢工作人員就可以通過(guò)這個(gè)值,再根據(jù)自己的比對(duì)來(lái)判斷旅客是不是同一個(gè)人,相當(dāng)于增加了一道安全的防護(hù)的保障。

人臉識(shí)別安檢系統(tǒng)安全便捷,智能高效,不僅方便了旅客過(guò)檢,還解決了在發(fā)生突發(fā)情況需要核查旅客過(guò)檢信息時(shí)無(wú)法實(shí)現(xiàn)快速查詢(xún)、檢查效率低、員工勞動(dòng)強(qiáng)度大、人工成本高等問(wèn)題。

人臉相比指紋等其他生物特征數(shù)據(jù)的一個(gè)巨大區(qū)別就是它們能夠遠(yuǎn)距離起作用。人們只要有手機(jī)就可以拍下照片,供人臉識(shí)別程序使用。人臉識(shí)別技術(shù)被設(shè)想應(yīng)用或已經(jīng)應(yīng)用于門(mén)禁識(shí)別、交易支付、公安追蹤等眾多領(lǐng)域。

不過(guò)這也引發(fā)了人們關(guān)于隱私安全等方面的顧慮。

就像Facebook可以獲得人們到訪(fǎng)某個(gè)景點(diǎn)的信息,然后使用人臉識(shí)別技術(shù)在自己的網(wǎng)站上找到這些人,向他們發(fā)送旅游廣告,人們的臉部數(shù)據(jù)也通常在不知不覺(jué)之中被采集和記錄下來(lái)。

人臉識(shí)別是否會(huì)帶來(lái)隱私安全隱患?

如今,執(zhí)法機(jī)關(guān)在追蹤罪犯方面擁有了一個(gè)強(qiáng)大的武器,但它可能會(huì)令公民隱私遭受巨大的損害。比如上周五,在谷歌、亞馬遜之后,另一家硅谷巨頭微軟也在內(nèi)外阻力之下選擇和美國(guó)政府在人臉識(shí)別計(jì)劃上“分手”了。

最近微軟因一份涉及人臉識(shí)別軟件的政府合同而受到廣泛抨擊,微軟公司表示,它將更加謹(jǐn)慎地考慮這方面的合同,并敦促立法者規(guī)范此類(lèi)人工智能技術(shù)的使用,以防止人臉識(shí)別技術(shù)被濫用。

上周五,微軟總裁兼首席法務(wù)官布拉德·史密斯(Brad Smith)專(zhuān)門(mén)發(fā)表了一篇博文,并在里面寫(xiě)道:

“考慮到這項(xiàng)技術(shù)被濫用的可能性和廣泛的社會(huì)影響,政府在人臉識(shí)別方面的立法似乎顯得尤為重要?!币簿褪钦f(shuō),“如果沒(méi)有一個(gè)縝密的技術(shù)方案,那么政府在決定追捕、調(diào)查乃至逮捕哪些人的時(shí)候,就將依賴(lài)于錯(cuò)誤或者帶有偏見(jiàn)的技術(shù)。”

微軟是第一個(gè)對(duì)人臉識(shí)別提出公開(kāi)質(zhì)疑的硅谷巨頭,但不是第一個(gè)受到質(zhì)疑的科技公司。

今年五月,亞馬遜因?yàn)檎跒檎途觳块T(mén)推銷(xiāo)其一款名為Amazon Rekognition的產(chǎn)品而被推上風(fēng)口浪尖,遭到了來(lái)自民間自由團(tuán)體、公司內(nèi)部員工和眾多學(xué)者的強(qiáng)烈譴責(zé)。

Amazon Rekognition的技術(shù)可以實(shí)時(shí)識(shí)別、跟蹤和分析人員,并在單幅圖像中識(shí)別多達(dá)100個(gè)人。它還可以快速掃描收集的信息,與數(shù)據(jù)庫(kù)數(shù)千萬(wàn)張面孔進(jìn)行比對(duì)。

消息一發(fā)布,瞬間引起了一大波恐慌,美國(guó)公民自由聯(lián)盟組織了30多個(gè)民權(quán)組織聯(lián)合抗議亞馬遜和政府的合作,要求亞馬遜CEO貝索斯停止向政府出售Rekognition。

大部分抗議者認(rèn)為,如果政府可以利用精準(zhǔn)的人臉識(shí)別,那么就將利用這個(gè)系統(tǒng)跟蹤和監(jiān)視民眾,個(gè)人隱私就會(huì)被公共權(quán)力毫無(wú)邊際地侵犯。Rekognition 技術(shù)的廣泛使用會(huì)給有色人種、非法入境移民、抗議示威民眾的人身自由權(quán)利帶來(lái)可怕的后果。

亞馬遜內(nèi)部的100多名員工更是向CEO杰夫·貝索斯(Jeff Bezos)遞交了一份公開(kāi)信,要求公司停止向ICE和其他執(zhí)法機(jī)構(gòu)出售侵入性和違憲的Rekognition面部識(shí)別技術(shù)。

這些員工在聲明中言辭激烈地寫(xiě)到:“我們公司不應(yīng)該干監(jiān)視群眾這種蹚渾水的事情;更不應(yīng)該和警方在安保方面有過(guò)密的合作;我們不應(yīng)該支持那些監(jiān)督和壓迫邊緣人群的公共權(quán)力機(jī)構(gòu)?!?

如果沒(méi)有一個(gè)不帶偏見(jiàn)的技術(shù),那么執(zhí)法部門(mén)就可能利用這些帶有偏見(jiàn)的算法或缺陷的技術(shù)方法來(lái)決定跟蹤、調(diào)查,甚至逮捕哪些人,從而做出不公正的結(jié)論。

但是科技公司真的會(huì)因?yàn)楦鞣降牡种贫V古c政府和軍方在人臉識(shí)別領(lǐng)域的合作嗎?恐怕不。

亞馬遜的 AI 負(fù)責(zé)人 Matt Wood 在回應(yīng)抗議聲的博客中寫(xiě)道:

新技術(shù)能力一直都存在風(fēng)險(xiǎn),以后也會(huì)如此。每個(gè)選擇使用技術(shù)的組織必須采取負(fù)責(zé)任的行動(dòng),否則就得面臨法律懲罰和公眾譴責(zé)的風(fēng)險(xiǎn)。AWS 會(huì)認(rèn)真對(duì)待自己的責(zé)任。但我們認(rèn)為,不能因?yàn)槟承┘夹g(shù)未來(lái)可能被人濫用就禁止這些技術(shù)的發(fā)展,這樣是不對(duì)的?!?

無(wú)獨(dú)有偶。

因和五角大樓合作展開(kāi)Maven項(xiàng)目而飽受指責(zé)的谷歌在宣布人工智能7大原則之后仍然給自己留了個(gè)臺(tái)階,表示將繼續(xù)與美國(guó)政府和軍方開(kāi)展在網(wǎng)絡(luò)安全、培訓(xùn)、退伍軍人醫(yī)療保健、搜救和軍事招聘方面合作。這家網(wǎng)絡(luò)巨頭正在爭(zhēng)取兩項(xiàng)數(shù)十億美元的國(guó)防部門(mén)辦公和云服務(wù)合同。

人臉識(shí)別的偏見(jiàn)與缺陷

雖然人臉識(shí)別已經(jīng)成為AI 領(lǐng)域應(yīng)用最廣泛的技術(shù)之一,但在推廣過(guò)程中仍然爭(zhēng)議不斷。

其實(shí),早在2016年,FBI就開(kāi)發(fā)過(guò)一個(gè)人臉識(shí)別系統(tǒng),背后還有一個(gè)41.1億張照片的數(shù)據(jù)庫(kù)。

當(dāng)時(shí)FBI通過(guò)與18個(gè)州交換合作,得到了簽證、護(hù)照、國(guó)防生物識(shí)別數(shù)據(jù)庫(kù)、駕駛證等證件上的照片——以及3千萬(wàn)張?jiān)?jīng)犯罪的入檔照片。

FBI還為這個(gè)數(shù)據(jù)庫(kù)專(zhuān)門(mén)取了個(gè)“下代識(shí)別”(Next Generation Identification)的名稱(chēng)。

然而,據(jù)英國(guó)衛(wèi)報(bào)報(bào)道,FBI 的人臉識(shí)別算法準(zhǔn)確率只有85%,并且往往會(huì)有兩種失誤情況:一種是錯(cuò)誤匹配,冤枉了無(wú)辜的平民;另一種則是漏報(bào),即錯(cuò)誤放走了出境或入境的罪犯。而識(shí)別系統(tǒng)在識(shí)別黑人比識(shí)別白人的出錯(cuò)率更高,也就是說(shuō)在執(zhí)法時(shí),黑人被誤判的幾率更大。

這暴露了人臉識(shí)別系統(tǒng)通常具有出錯(cuò)率高的缺陷,尤其是難以識(shí)別和區(qū)分膚色較深的人。

MIT Lab一項(xiàng)名為《Gender Shades》的研究項(xiàng)目就發(fā)現(xiàn),人臉識(shí)別軟件中的不同性別和膚色的人的時(shí)候會(huì)產(chǎn)生偏差。在淺膚色男性的錯(cuò)誤率為0.8%,而對(duì)于深色皮膚的女性則錯(cuò)誤率高達(dá)34.7%。研究人員將這種偏差成為“算法偏見(jiàn)(algorithmic bias)”。

黑人研究人員Joy Buolamwini選擇了微軟、IBM和曠視(Face++)三家的人臉識(shí)別API,對(duì)它們進(jìn)行性別判定的人臉識(shí)別功能測(cè)試。但是她發(fā)現(xiàn)只有兩個(gè)平臺(tái)能識(shí)別出她的臉,而且這兩個(gè)平臺(tái)都把她的性別給弄錯(cuò)了。

為了證明她不是特例,Buolamwini于是嘗試分析這些人臉識(shí)別技術(shù)軟件在識(shí)別不同人種、不同性別方面的準(zhǔn)確率,結(jié)果發(fā)現(xiàn)這幾個(gè)人臉識(shí)別系統(tǒng)對(duì)膚色較深的女性的分類(lèi)誤差率更高。

她解釋說(shuō),這種“算法偏見(jiàn)”(algorithmic bias)存在的主要原因首先是訓(xùn)練圖像和基準(zhǔn)數(shù)據(jù)集缺乏多樣性,其次是深色人種人臉特征較難提取,這兩點(diǎn)限制了人臉識(shí)別技術(shù)的準(zhǔn)確性。

由于人工智能很大程度上依賴(lài)于訓(xùn)練數(shù)據(jù),所以對(duì)人工智能進(jìn)行訓(xùn)練的數(shù)據(jù)情況,將在很大程度上決定AI的智能程度。因此,如果用來(lái)訓(xùn)練AI模型的數(shù)據(jù)集中,白人男性的數(shù)據(jù)多于黑人女性,那么系統(tǒng)對(duì)后者的識(shí)別能力就會(huì)不如前者。

Joy Buolamwini指出,如果這些人臉識(shí)別技術(shù)用于移民案件管理或者貸款發(fā)放評(píng)估方面,那么產(chǎn)生的不靠譜的結(jié)果將使很多人得到不公正的待遇。

Kairos(人臉識(shí)別及 AI 技術(shù)初創(chuàng)公司)的 CEO Brian Brackeen 發(fā)表了一篇反對(duì)將人臉識(shí)別應(yīng)用在執(zhí)法工作中的文章。

文章中寫(xiě)道,在種族歧視嚴(yán)重的美國(guó),非白人受到更嚴(yán)格的審查,人臉識(shí)別只會(huì)加重“不平等”。在數(shù)據(jù)庫(kù)還不夠完善的當(dāng)下,讓技術(shù)去“指認(rèn)”一個(gè)人是否犯了罪是極其不負(fù)責(zé)任的。喬治城大學(xué)法律學(xué)院隱私與科學(xué)中心的研究就表明,接近一億二千萬(wàn)的美國(guó)人成為美國(guó)政府人臉識(shí)別技術(shù)的應(yīng)用對(duì)象。而這一個(gè)數(shù)據(jù)在中國(guó)則更加龐大。

鑒于人臉識(shí)別技術(shù)仍未成熟,如果完全不受監(jiān)管的話(huà),這項(xiàng)技術(shù)可能會(huì)對(duì)公民平等和人身安全構(gòu)成威脅。

人臉識(shí)別會(huì)成為明天的“利維坦”嗎?

微軟總裁兼首席法務(wù)官布拉德·史密斯在發(fā)表的博文里面提到:

“正像凡是工具總有兩面性,就算是掃把,我們也都可以把它用來(lái)掃地,也可以用來(lái)敲別人的頭懲罰別人。人臉識(shí)別技術(shù)能夠幫助家庭找到失散已久的親人、也可以幫助警察在茫茫人海中找出準(zhǔn)備發(fā)動(dòng)襲擊的恐怖分子,這些是它能為我們所利用的好處。但同時(shí),人臉識(shí)別技術(shù)也帶來(lái)了根本的關(guān)于隱私權(quán)和自由表達(dá)權(quán)利的討論,這項(xiàng)技術(shù)若是被公共權(quán)力或者企業(yè)所誤用乃至利用,后果是非??膳碌摹!?

人臉識(shí)別是目前 AI 領(lǐng)域里應(yīng)用最廣泛的技術(shù)之一,但是帶來(lái)的隱私問(wèn)題也十分嚴(yán)重。

喬治城大學(xué)法隱私和技術(shù)中心的助理 Clare Garvie也表達(dá)了她的擔(dān)憂(yōu)。

人臉識(shí)別對(duì)言論自由的影響是潛在但不可忽視的。如果人臉識(shí)別技術(shù)被警方用于監(jiān)控那些挑戰(zhàn)公共權(quán)力的群眾,那就好比用于在游行示威中,就如同警方在隊(duì)伍中穿行,要求在場(chǎng)的每個(gè)人都出示身份證明。所有的群眾都在爭(zhēng)取政治權(quán)利的過(guò)程中加之亞馬遜在科技領(lǐng)域的影響力,會(huì)有更多執(zhí)法機(jī)構(gòu)愿意參與進(jìn)來(lái)。

微軟這次的事件之所以引起各方關(guān)注,就是因?yàn)樵谏蟼€(gè)月微軟的AI 技術(shù)被用于在墨西哥邊境分離非法入境者及其子女。事件被曝光后,微軟短暫地在網(wǎng)站上刪除了其與美國(guó)移民和海關(guān)執(zhí)法局簽訂合同的文章,但仍然受到廣泛抨擊。

此外,由于人臉不僅僅能表明身份,透露的許多其他信息同樣能由機(jī)器讀取,更多人擔(dān)心這些推測(cè)數(shù)據(jù)會(huì)被用于不正義的地方。

斯坦福大學(xué)的研究人員就表明,面對(duì)一個(gè)男同性戀者和一個(gè)異性戀者的照片時(shí),算法識(shí)別他們性取向的準(zhǔn)確率可以達(dá)到81%,而人類(lèi)只能達(dá)到61%。在那些視同性戀為犯罪的國(guó)家,一個(gè)能從面部推斷出性取向的軟件讓人恐懼。

今年五月,美國(guó)公民自由團(tuán)體已經(jīng)呼吁科技公司停止向政府提供面部識(shí)別服務(wù),認(rèn)為這是對(duì)公民權(quán)利的侵犯。各家公司都表示將更加謹(jǐn)慎地考慮這方面的合同,并敦促立法者規(guī)范人工智能技術(shù)的使用,避免這些技術(shù)受到執(zhí)法者的濫用。

在歐盟,今年五月新出臺(tái)的《GDPR數(shù)據(jù)保護(hù)法》已禁止企業(yè)在未獲得用戶(hù)特定同意的情況下收集人臉識(shí)別所需的生物特征數(shù)據(jù)。

諸多文章和質(zhì)疑都表明,人臉識(shí)別被濫用的隱私和安全問(wèn)題不能再放任不管了,政府必須在其中扮演立法者的角色,科技公司也不能對(duì)倫理問(wèn)題視而不見(jiàn),是時(shí)候應(yīng)該好好地思考他們開(kāi)發(fā)的技術(shù)所產(chǎn)生的道德影響和人權(quán)影響、以及使用過(guò)程中帶來(lái)的風(fēng)險(xiǎn)。

結(jié)語(yǔ)

在圣經(jīng)故事中,利維坦一只大水怪,因?yàn)椴皇芸刂?它憑借著巨大的身型攻城略地,把人類(lèi)一個(gè)又一個(gè)的吃掉。

人臉識(shí)別技術(shù),抑或是人工智能技術(shù)也一樣,如果沒(méi)有完善的法律約束使用這項(xiàng)技術(shù)的應(yīng)用領(lǐng)域,保證他們用于合法、道德的場(chǎng)景,那么科技就會(huì)助紂為虐,而不是像科技公司所說(shuō)的那樣,改善我們的生活質(zhì)量,讓我們過(guò)上更加安全、舒適的生活。

所以人臉識(shí)別技術(shù)的明天不僅要追求精準(zhǔn)的”高度”,更要守著公民權(quán)利的“底線(xiàn)”啊。

來(lái)源:聲學(xué)在線(xiàn)

  • 標(biāo)簽: