人臉識(shí)別不光能解鎖手機(jī),抓逃犯...它還可能檢測(cè)你是直男還是 Gay?
也許你已經(jīng)聽過了這一消息。去年,斯坦福大學(xué)組織助理教授 Michael Kosinki 和同事 Yilun Wang 在一篇論文中展示了人臉識(shí)別算法如何從圖像中提取特征,來識(shí)別某人是否是同性戀。研究稱,在只有一張正面照的情況下,算法判斷男同性戀的準(zhǔn)確率達(dá)到 81%,女同性戀的準(zhǔn)確率則為 74%。
相比之下,人類能夠分辨出同性戀的準(zhǔn)確率為 61%(男)和 54%(女)。而當(dāng)測(cè)試者在提供五張面部圖片的情況下,人臉識(shí)別算法的準(zhǔn)確度增加到了 91%(男)和 83%(女)。
研究發(fā)現(xiàn),同性戀往往具有“性別非典型”特征,這也給產(chǎn)前激素理論提供了強(qiáng)有力的支持——也就是同性戀男性的長(zhǎng)相更女性化。通常,男性的下巴較寬,鼻子較短,前額較小;而男同性戀者下巴較窄,鼻子較長(zhǎng),前額較大,臉部毛發(fā)較稀少。相反,女同性戀者的臉部通常比女異性戀者的臉部更像男性臉部(下巴較寬,前額較小)。而且,同性戀者和異性戀者在梳洗打扮方面確實(shí)不同。
這一研究在當(dāng)時(shí)引起軒然大波,引發(fā)了 LGBTQ 組織的抗議,要求斯坦福大學(xué)不再涉足相關(guān)研究。近日,《衛(wèi)報(bào)》發(fā)布了一篇對(duì) Kosinki 的專訪報(bào)道,解釋了這項(xiàng)研究的出處以及目的,并且在近一年面臨各種質(zhì)疑的情況下依然堅(jiān)持這項(xiàng)研究的可行性,最后還表達(dá)了他對(duì) AI 技術(shù)的悖論思考。
據(jù) Kosinki 介紹,當(dāng)時(shí)和他的助手通過采集分析了婚戀交友網(wǎng)站上的 35326 張照片,運(yùn)用機(jī)器學(xué)習(xí)技術(shù)研發(fā)出一套名為“AI gaydar”系統(tǒng),用以識(shí)別同性戀。
但這這項(xiàng)研究并非有意為之,而是一個(gè)偶然發(fā)現(xiàn)。當(dāng)時(shí),他正在利用 Facebook 的用戶數(shù)據(jù)做人格分析,在篩選個(gè)人資料時(shí),注意到內(nèi)向和外向的人有著截然不同的面孔,這讓他感到兩者可能存在某種聯(lián)系。
實(shí)際上,在得到上述研究結(jié)果之后,他作為研究者也驚訝于算法為什么會(huì)這么容易區(qū)分出同性戀和異性戀。
在該研究被《經(jīng)濟(jì)學(xué)人》報(bào)道后,Kosinki 遭到了來自網(wǎng)友以及學(xué)界的口誅筆伐。普林斯頓大學(xué)教授 Alexander Todorov 當(dāng)時(shí)質(zhì)疑 Kosinski 的研究存在嚴(yán)重缺陷,因?yàn)橥ㄟ^比較數(shù)千張照片而成的算法模式可能與面部特征無關(guān)。另有 Google 的兩位 AI 研究人員和 Todorov 持一致論調(diào),認(rèn)為 Kosinski 的算法可能會(huì)對(duì)檢測(cè)者的妝束、胡須或者眼鏡等特征做出回應(yīng),但 AI gaydar 并沒有發(fā)現(xiàn)不同性取向的人在臉部特征上有何差異。
根據(jù)今年 1 月的報(bào)道,Google 研究團(tuán)隊(duì)對(duì)這一爭(zhēng)議研究進(jìn)行了二次調(diào)查,他們的反對(duì)態(tài)度更加堅(jiān)決。通過這次調(diào)查,Google 團(tuán)隊(duì)反而發(fā)現(xiàn)了同性戀與異性戀關(guān)于“如何自拍”的差異。他們發(fā)現(xiàn),“直男傾向于低角度自拍,使得下巴變大,鼻子縮短、額頭變小,笑容減少”,這樣的角度強(qiáng)調(diào)了其主導(dǎo)地位。因此,他們認(rèn)為這種差異的存在主要與文化而不是臉部結(jié)構(gòu)有關(guān)。
此外,Todorov 也指出,人們?cè)诩s會(huì)網(wǎng)站上發(fā)的照片,投射出很多非人臉的特征。
Kosinski 承認(rèn)他的機(jī)器學(xué)習(xí)系統(tǒng)檢測(cè)到了這些不相關(guān)的特征,但他還是堅(jiān)持認(rèn)為,人臉與心理之間存在聯(lián)系,即便它們對(duì)人眼是不可見的,但現(xiàn)在隨著機(jī)器學(xué)習(xí)的進(jìn)步就可以感知到這種連接。
他拿人類犯罪傾向做類比,認(rèn)為睪酮水平與犯罪傾向有關(guān),而且它們也與面部特征有關(guān),這個(gè)環(huán)節(jié)計(jì)算機(jī)很容易被發(fā)現(xiàn)。不過,當(dāng)被問及他是否會(huì)利用 AI 進(jìn)行犯罪檢測(cè)這種類似研究時(shí),卻表現(xiàn)得猶豫不決。
但早在 2016 年,在太平洋彼岸的中國(guó),上海交大教授就完成用機(jī)器看臉識(shí)罪犯的研究,根據(jù)當(dāng)時(shí)的報(bào)道,聲稱識(shí)別準(zhǔn)確率可達(dá) 86% 以上,這在當(dāng)時(shí)也引起了國(guó)內(nèi)外輿論的質(zhì)疑,Google 的幾名研究員也對(duì)其撰文進(jìn)行了批駁。
Kosinki 還使用人臉識(shí)別算法來辨別共和黨人和民主黨人的政治傾向,這目前還是一項(xiàng)未公開的研究,但他聲稱這項(xiàng)研究是成功的,盡管他也承認(rèn)這個(gè)結(jié)果可能隨著被檢測(cè)者某些臉部特征(如胡須)的改變而改變。值得一提的是,Kosinski 對(duì)人工智能的開創(chuàng)性研究曾啟發(fā)了現(xiàn)在臭名昭著的政治咨詢公司 Cambridge Analytica,后者將其技術(shù)應(yīng)用在了特朗普競(jìng)選活動(dòng)以及英國(guó)脫歐活動(dòng)中。
除此之外,他相信 AI 技術(shù)可用于檢測(cè)情緒、智商甚至是犯罪傾向。Kosinki 也稱,AI 技術(shù)應(yīng)用多少都存在隱私問題,但它有時(shí)可以用來拯救生命,這是在警告人們免受新技術(shù)困擾時(shí)存在的固有悖論,這是批評(píng)者們經(jīng)常所忽視的。
Kosinki 表示,他對(duì)人類失去隱私感到不安,但這不會(huì)改變我們已經(jīng)失去隱私的事實(shí),而且這種糟糕的狀況是不可逆的。這些研究最重要的是強(qiáng)調(diào) AI 對(duì)人類隱私所造成的潛在危險(xiǎn),從而引起人們的重視。
事到如今,對(duì)人臉識(shí)別技術(shù)究竟能否檢測(cè)同性戀這一話題,還未有統(tǒng)一權(quán)威的報(bào)告給出確定答案,但有意思的是,Kosinki 透露,他收到了大量電子郵件,那些對(duì)自己性取向有困惑的人們紛紛獻(xiàn)上照片,希望 Kosinki 用“AI gaydar”系統(tǒng)做個(gè)鑒定。
對(duì)于人臉識(shí)別技術(shù)檢測(cè)同性戀,你怎么看?
原文標(biāo)題:壞了,人臉識(shí)別能檢測(cè)出同性戀?
文章出處:【微信號(hào):rgznai100,微信公眾號(hào):AI科技大本營(yíng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。