国产精品久久国产_特级无码一区二区三区毛片视频_在线观看亚洲最大黄色网站_亚洲 中文 自拍_中文无码电影2020_成人片黄网站色大片免费西瓜影院_日本精品在线二区_北京老熟妇偷人偷拍_羞羞色院91精品永久站_欧美日韩国产不卡

  • 服務(wù)熱線:13728883399
  • wangyp@shangeai.com

人臉識(shí)別技術(shù)存在著潛在的失敗風(fēng)險(xiǎn) 我們要謹(jǐn)慎對(duì)待

時(shí)間:2018-12-23 15:52:14點(diǎn)擊:480次

在最近發(fā)布的一篇博文中,谷歌公司全球事務(wù)高級(jí)副總裁Kent Walker寫(xiě)道:谷歌將不會(huì)通過(guò)Google Cloud提供“通用型”的人臉識(shí)別API。除非相關(guān)“挑戰(zhàn)”得到明確“認(rèn)定與解決”。

Walker解釋稱,“與其它一些公司不同,谷歌正在努力解決與人臉識(shí)別技術(shù)相關(guān)的一系列重要技術(shù)與政策性問(wèn)題。與眾多具有多種用途的新技術(shù)一樣,人臉識(shí)別的應(yīng)用同樣需要被慎重考量,從而確保其使用方式符合我們的原則與價(jià)值觀,同時(shí)避免濫用與可能出現(xiàn)的危害性結(jié)果?!?

最近,谷歌公司似乎對(duì)新技術(shù)的使用表現(xiàn)出了與業(yè)界不同的謹(jǐn)慎態(tài)度。不久之前,谷歌方面正式?jīng)Q定中止為美國(guó)國(guó)防部提供對(duì)無(wú)人機(jī)拍攝內(nèi)容進(jìn)行分析的人工智能方案。

事實(shí)上,除了谷歌之外,還有不少科技巨頭一直在廣泛關(guān)注人臉識(shí)別技術(shù)中的種種不成熟跡象,以及可能由此造成的危害影響。日前,由布魯金斯學(xué)會(huì)在華盛頓舉辦的一次活動(dòng)當(dāng)中,微軟公司總裁Brad Smith就建議人們應(yīng)當(dāng)考慮到人臉識(shí)別技術(shù)當(dāng)中可能存在的“高風(fēng)險(xiǎn)場(chǎng)景”,例如該技術(shù)可能被用于限制人身自由。他認(rèn)為,利用人臉識(shí)別技術(shù)的團(tuán)隊(duì)?wèi)?yīng)遵守關(guān)于性別、種族以及民族的反歧視法,并且各企業(yè)都應(yīng)對(duì)自家人工智能方案的局限性保持高度“透明”。

對(duì)此,Smith還進(jìn)一步指出,微軟公司已經(jīng)得出其中可能存在人權(quán)風(fēng)險(xiǎn)的結(jié)論,并且一直在拒絕客戶提出的部署人臉識(shí)別技術(shù)的要求。據(jù)透露,今天6月微軟公司撤銷(xiāo)了一份合約,合約內(nèi)容要求微軟方面為美國(guó)移民與海關(guān)執(zhí)法局(簡(jiǎn)稱ICE)提供數(shù)據(jù)處理與人工智能類工具

Smith解釋稱:“人臉識(shí)別技術(shù)的出現(xiàn)正在催生出一種新的可能性,即實(shí)現(xiàn)大規(guī)模監(jiān)控體系。對(duì)于政府來(lái)說(shuō),這項(xiàng)技術(shù)將幫助其在任意位置追蹤任意目標(biāo)。如果我們不充分考慮到這些可能性,那么這一切有可能在2024年突然降臨到我們自己身上——就如同《一九八四》(《一九八四》(Nineteen Eighty-Four)中刻畫(huà)了一個(gè)令人感到窒息的恐怖世界,在假想的未來(lái)社會(huì)中,獨(dú)裁者以追逐權(quán)力為最終目標(biāo),人性被強(qiáng)權(quán)徹底扼殺,自由被徹底剝奪,思想受到嚴(yán)酷鉗制,人民的生活陷入了極度貧困,下層人民的人生變成了單調(diào)乏味的循環(huán)。)一書(shū)中描述的可怕景象一樣?!?

Salesforce公司首席科學(xué)家Richard Socher也抱有同樣的焦慮情緒。在本月于蒙特利爾召開(kāi)的NeurlPS 2018大會(huì)期間,他在接受VentureBeat采訪時(shí)表示,正是由于存在這些顧慮,Salesforce公司目前才決定不通過(guò)Einstein圖像識(shí)別API為Einstein Vision提供人臉識(shí)別功能。

他指出,“一旦我們開(kāi)始根據(jù)某人的面部做出各種重要的決策,那么由此引發(fā)的后果有可能非常可怕。人工智能在決策層面的實(shí)際表現(xiàn),完全取決于其用于訓(xùn)練的數(shù)據(jù)質(zhì)量?!?

人工智能的失誤

然而,并非每一家公司都有同樣的審慎態(tài)度。

今年夏天,亞馬遜公司將Rekognition(一種基于云的圖像分析技術(shù),通過(guò)Amazon Web Services事業(yè)部正式對(duì)外開(kāi)放)交付至佛羅里達(dá)州奧蘭多市以及俄勒岡州華盛頓縣警長(zhǎng)辦公室作為執(zhí)法工具。奧蘭多市隨后決定續(xù)簽相關(guān)協(xié)議,并試行人臉識(shí)別監(jiān)控計(jì)劃——此項(xiàng)計(jì)劃覆蓋該市警察隊(duì)伍中的眾多志愿者;此外,華盛頓縣還決定利用該項(xiàng)功能構(gòu)建一款應(yīng)用程序,利用一套包含30萬(wàn)人臉信息的數(shù)據(jù)庫(kù)對(duì)可疑犯罪分子的照片進(jìn)行掃描比對(duì)。

在一項(xiàng)測(cè)試當(dāng)中(亞馬遜公司對(duì)其準(zhǔn)確性提出了質(zhì)疑),美國(guó)公民自由聯(lián)盟證明RekogniTIon從某“公共來(lái)源”處獲取到25000張照片,并在將其與國(guó)會(huì)議員的官方照片進(jìn)行比較時(shí)誤將28人視為罪犯。而更令人震驚的是,大多數(shù)錯(cuò)誤判斷(占比38%)與有色人種相關(guān)。

AWS公司總經(jīng)理Matt Wood于今年6月對(duì)上述結(jié)論提出了質(zhì)疑,認(rèn)為RekogniTIon有助于“保護(hù)兒童權(quán)益,并可用于為兒童構(gòu)建教育類應(yīng)用程序”,同時(shí)還能夠“通過(guò)多因素身份驗(yàn)證機(jī)制增強(qiáng)安全性,降低圖像的識(shí)別難度,從而用于防止包裹被盜等問(wèn)題。”

在今年8月發(fā)布的另一篇博文當(dāng)中,亞馬遜公司指出以Marinus AnalyTIcs公司為代表的眾多AWS客戶正在利用RekogniTIon幫助尋找落入人販子手中的受害者,并幫助其與家人團(tuán)聚。此外,非營(yíng)利性組織Thorn等人權(quán)機(jī)構(gòu)也在利用這項(xiàng)技術(shù)尋找并營(yíng)救遭受性虐待的兒童。

他在博文中寫(xiě)道:“根據(jù)報(bào)道,目前并沒(méi)有出現(xiàn)任何與亞馬遜Rekognition相關(guān)的執(zhí)法濫用行為。選擇利用這些新型技術(shù)的組織必須采取負(fù)責(zé)任的態(tài)度,否則將面臨受到法律處罰以及公開(kāi)譴責(zé)的風(fēng)險(xiǎn)。對(duì)此,AWS一直抱以嚴(yán)肅的態(tài)度和責(zé)任?!?

但必須承認(rèn),很多參與方并非如此。

今年9月,The Intercept網(wǎng)站發(fā)布的一篇報(bào)告顯示,IBM公司與紐約市警察局合作開(kāi)發(fā)出一套系統(tǒng),允許執(zhí)法方根據(jù)膚色、頭發(fā)顏色、性別、年齡以及各種面部特征進(jìn)行人物搜索。利用紐約警察局提供的來(lái)自約50臺(tái)攝像機(jī)的“成千上萬(wàn)”張照片,該人工智能方案學(xué)會(huì)了如何識(shí)別服裝顏色以及其它體貌特征。

IBM公司的一位發(fā)言人指出,這套系統(tǒng)僅被用于“評(píng)估性目的”。但于2017年發(fā)布的IBM智能視頻分析2.0產(chǎn)品確實(shí)提供一種與此相似的攝像頭監(jiān)控功能,可以通過(guò)“亞洲人”、“黑人”以及“白人”等標(biāo)簽對(duì)拍攝目標(biāo)進(jìn)行自動(dòng)標(biāo)記。

偏見(jiàn)的可能性

除了Socher所提到的道德原則之外,也有越來(lái)越多的研究對(duì)于人臉識(shí)別技術(shù)的整體準(zhǔn)確度持懷疑態(tài)度。

于2012年進(jìn)行的一項(xiàng)研究表明,供應(yīng)商Cognitec公司提供的面部算法在識(shí)別非裔美國(guó)人方面的表現(xiàn)要比識(shí)別白種人低5%至10%;2011年,還有研究人員發(fā)現(xiàn)中國(guó)、日本以及韓國(guó)開(kāi)發(fā)出的人臉識(shí)別模型很難區(qū)分高加索人與東亞人種。今年2月,麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究人員們指出,微軟、IBM與中國(guó)廠商Megvii公司的人臉識(shí)別技術(shù)在識(shí)別淺膚色女性方面錯(cuò)誤率高達(dá)7%,識(shí)別深膚色男性的錯(cuò)誤率為12%,而對(duì)深膚色女性的錯(cuò)判比例更是達(dá)到35%。

算法出錯(cuò)的例子還遠(yuǎn)不止于此。最近調(diào)查結(jié)果顯示,倫敦大都會(huì)警察局部署的系統(tǒng)在每一次實(shí)際應(yīng)用時(shí)都會(huì)產(chǎn)生最多49次的錯(cuò)誤匹配。在去年眾議院監(jiān)督委員會(huì)關(guān)于人臉識(shí)別技術(shù)的聽(tīng)證會(huì)上,美國(guó)聯(lián)邦調(diào)查局承認(rèn),其用于識(shí)別犯罪嫌疑人的算法存在高達(dá)15%的錯(cuò)誤判斷率。此外,弗吉尼亞大學(xué)的研究人員正在進(jìn)行的一項(xiàng)研究發(fā)現(xiàn),兩大著名研究圖像集——ImSitu與COCO(COCO由Facebook、微軟以及初創(chuàng)企業(yè)MightyAI共同構(gòu)建),在對(duì)體育、烹飪以及其它多種活動(dòng)的描述當(dāng)中,表現(xiàn)出明顯的性別偏見(jiàn)(例如購(gòu)物圖像一般與女性有關(guān),而教練圖像則往往與男性關(guān)聯(lián))。

在這方面,最臭名昭著的案例之一,無(wú)疑是2015年一位軟件工程師提交的報(bào)告——其指出谷歌照片中的圖像分類算法將非洲裔美國(guó)人判定為“大猩猩”。

即使是美國(guó)規(guī)模最大的車(chē)載攝像機(jī)供應(yīng)商之一Axon公司的CEO Rick Smith,今年夏季也對(duì)此做出表態(tài),指出人臉識(shí)別技術(shù)對(duì)于執(zhí)法類應(yīng)用而言還不夠準(zhǔn)確可靠。

他解釋稱,“這類技術(shù)方案還沒(méi)有做好真正通過(guò)人臉識(shí)別做出行動(dòng)決策的準(zhǔn)備。在我們看來(lái),因?yàn)槠渲锌赡艹霈F(xiàn)的技術(shù)故障或?qū)?lái)災(zāi)難性的后果,大家不應(yīng)急于將其部署至實(shí)際場(chǎng)景當(dāng)中?!?

技術(shù)層面的進(jìn)展

過(guò)去十年以來(lái),眾多失誤和問(wèn)題的出現(xiàn)似乎令人臉識(shí)別技術(shù)的前景蒙上了一層陰影。然而,必須承認(rèn)的是,這項(xiàng)技術(shù)一直在準(zhǔn)確度以及解決偏見(jiàn)問(wèn)題等技術(shù)性層面取得可喜的進(jìn)展。

今年6月,通過(guò)與人工智能公平性專家們開(kāi)展合作,微軟公司修改并擴(kuò)展了其用于模型訓(xùn)練的Face API數(shù)據(jù)集。Face API是一項(xiàng)微軟Azure API,主要提供用于檢測(cè)、識(shí)別及分析圖像中人臉內(nèi)容的算法。通過(guò)與膚色、性別以及年齡相關(guān)的大量新數(shù)據(jù),Face API如今能夠?qū)⑸钅w色男性與女性的錯(cuò)誤判斷率降低至原本的二十分之一,對(duì)女性的錯(cuò)誤判斷率則降低為原先的九分之一。

與此同時(shí),初創(chuàng)企業(yè)Gfycat公司也于今年表示,其將引入更為嚴(yán)格的檢測(cè)閾值,從而努力提高其人臉識(shí)別算法在判斷亞裔人士面部方面的準(zhǔn)確性。

另外,值得一提的是,一系列新型算法偏見(jiàn)緩解工具的加速出現(xiàn),也在有力提高人工智能方案的公正性水平。

今年5月,Facebook公司發(fā)布了Fairness Flow,該工具會(huì)自動(dòng)警告某種算法是否根據(jù)檢測(cè)目標(biāo)的種族、性別或者年齡,做出了不公平的判斷。另外,埃森哲公司也發(fā)布了一款工具包,能夠自動(dòng)檢測(cè)AI算法中存在的偏見(jiàn),并幫助數(shù)據(jù)科學(xué)家降低這種偏見(jiàn)。微軟方面在今年5月同樣推出了自己的解決方案。谷歌公司也于今年9月發(fā)布了What-If工具,這項(xiàng)由TensorBoard網(wǎng)絡(luò)儀表板提供的偏見(jiàn)檢測(cè)功能,主要面向谷歌的TensorFlow機(jī)器學(xué)習(xí)框架。

IBM公司同樣緊跟這股時(shí)代潮流,其于今年秋季發(fā)布了AI Fairness 360——這是一款基于云的全自動(dòng)化套件,能夠?yàn)锳I系統(tǒng)“提供洞察見(jiàn)解”以,確保對(duì)其決策與推薦進(jìn)行調(diào)整,例如通過(guò)算法調(diào)整或數(shù)據(jù)平衡等方式緩解偏見(jiàn)對(duì)結(jié)果造成的影響。最近,IBM Watson與云平臺(tái)小組的研究重點(diǎn),也開(kāi)始放在緩解AI模型中的偏見(jiàn),特別是與人臉識(shí)別相關(guān)的偏差方面。

不過(guò)根據(jù)Smith的說(shuō)法,這方面的發(fā)展道路還相當(dāng)漫長(zhǎng)。

他在今年早些時(shí)候發(fā)布的一篇博文中寫(xiě)道:“即使解決了偏見(jiàn)問(wèn)題,即人臉識(shí)別系統(tǒng)能夠以對(duì)所有人都公平公正的方式運(yùn)作,其中仍然存在著潛在的失敗風(fēng)險(xiǎn)。與眾多其它人工智能技術(shù)一樣,就算徹底排除到偏見(jiàn)性因素,人臉識(shí)別方案通常都會(huì)存在一定程度的誤差。一切工具都可用于善途或者惡途,而工具本身越強(qiáng)大,其可能帶來(lái)的收益或者損害也就越明顯。人臉識(shí)別技術(shù)給我們提出了一系列新問(wèn)題,特別是在與隱私以及言論自由等基本人權(quán)保護(hù)核心相關(guān)的層面,因此,必須始終對(duì)此保持謹(jǐn)慎的心態(tài)。”

  • 標(biāo)簽: