“相面術(shù)”是一種從通過外表得知性格的偽科學(xué),它有著悠久的歷史,其中第一批保存下來的相關(guān)文獻可以追溯到亞里士多德時代。達爾文曾經(jīng)差一點因為他的鼻子而錯過了他在小獵犬號上的歷史性航行,因為船長是一個狂熱的相士,他不相信長有這樣的鼻子的人會有足夠的決心完成航行?!暗艺J(rèn)為,”達爾文在他的自傳中冷淡地說,“后來的結(jié)果與通過我的鼻子預(yù)測出的相反,他很滿意這一點?!?
我們可能會取笑那些相士的想法,但是現(xiàn)代關(guān)于第一印象的科學(xué)表明,我們每個人最原始的想法都是與相士類似的。我們會從別人的面部表情中形成對他們的即時印象,只用不到十分之一秒的時間去看一張臉就足以讓我們下定結(jié)論了。第一印象不僅是即時的,而且也很重要:我們更有可能投票給那些看起來有能力的政客;更傾向于投資那些看起來值得信賴的人;而對那些看起來相反的人給予更嚴(yán)厲的反對?!耙悦踩∪恕笔巧缃簧畹囊粋€普遍特征。
關(guān)于第一印象的現(xiàn)代科學(xué)也總結(jié)出了許多造成這些影響的面部的刻板印象。在過去的十年里,心理學(xué)家們已經(jīng)建立了數(shù)學(xué)模型來可視化這些刻板印象。我們可以通過增加或減少模型中的可信性程度和能力水平得出相對應(yīng)的面孔。更重要的是,我們可以建立和測試關(guān)于面部刻板印象起源的理論。
然而,這項研究取得進展的一個意想不到的后果是——相面術(shù)的復(fù)興。也許我們對于面部的刻板印象不只是刻板印象,而是對他人性格的真實反映。相應(yīng)地,越來越多的研究表明,我們可以從一個人的面部表情中識別出他的心理健康、政治傾向和性取向等各種各樣的私人信息。
這些說法通常是基于一些猜測性取向的實驗,因為這些實驗得出的結(jié)果比隨機猜測更準(zhǔn)確。
而問題是,這些猜測并沒有比碰運氣準(zhǔn)確多少,而且往往不如基于更一般知識的猜測準(zhǔn)確。
此外,許多這樣的研究都是基于這樣一種謬論:所有的面部圖像對于這張臉的主人都有相同的代表性。雖然這一假設(shè)對熟悉的面孔來講可能是正確的,因為熟悉的面孔很容易從不同的圖像中辨認(rèn)出來,但是對于不熟悉的面孔來說,這當(dāng)然是錯誤的——而且根據(jù)定義,第一印象是關(guān)于不熟悉的面孔的印象。通常,我們不知道兩個不同的圖像是否代表了相同的(不熟悉的)人,并且,這些圖像可以造成完全不同的第一印象。因此,在評估第一印象的準(zhǔn)確性時,如何對人類肖像進行采樣是一個關(guān)鍵問題。
考慮一下圖像采樣時的偏差會如何影響對第一印象的準(zhǔn)確性的推斷。在許多“同性戀者”研究中,參與者被要求通過交友網(wǎng)站上的照片猜測照片發(fā)布者的性取向。在最早的此類研究中,猜測準(zhǔn)確率約為58%(而隨機猜測的準(zhǔn)確率為50%)。但由于許多人在交友網(wǎng)站上發(fā)布照片時會選擇更具代表性的圖片,從而去吸引他們想要吸引的人,因此這并不是一個中立的采樣方式。
事實上,當(dāng)這些猜測是通過這些同性戀或異性戀者的朋友在網(wǎng)站上發(fā)布的照片進行時,正確率只有52%。這種結(jié)果不僅在受試者猜測性取向的時候會出現(xiàn)。在最近的一項研究中,研究人員使用在線交友網(wǎng)站上的照片讓測試參與者猜測其社會階層,以財富作為評估標(biāo)準(zhǔn)。參與者猜測的準(zhǔn)確率大約為57%。但是,當(dāng)這些猜測是基于在標(biāo)準(zhǔn)化條件下拍攝的照片時,準(zhǔn)確率就下降到了51.5%。
隨著越來越多的面部照片被發(fā)布在網(wǎng)絡(luò)上,試圖從這些圖像中讀出我們“本質(zhì)”的研究不會消失。在過去的幾年中,有一波新的人工智能(AI)研究試圖做到這一點。一家科技初創(chuàng)企業(yè)已經(jīng)開始向私營企業(yè)和政府提供面部識別服務(wù)。去年,兩名計算機科學(xué)家在網(wǎng)上發(fā)布了一篇非同行評議的論文,聲稱他們的算法僅僅從面部圖像中就能推測出人們的犯罪行為。最近,一份著名的期刊接受了一篇論文,這篇論文聲稱人工智能算法可以從一個人的面部圖像中檢測出其性取向,其準(zhǔn)確度令人驚訝。
然而,同樣的問題在人工智能研究中也存在。后者使用強大的算法,可以檢測兩組圖像之間細(xì)微但系統(tǒng)的差異。但是,用于訓(xùn)練算法的圖像樣本和算法本身一樣重要。在關(guān)于犯罪的論文那篇中,作者提供了一些“罪犯”和“非罪犯”的圖片。除了明顯的面部表情差異外,“罪犯”穿的是T恤衫,而“非罪犯”穿的則是西裝。一個強大的算法很容易就能識別出這些差異,并產(chǎn)生一個看似準(zhǔn)確的分類。
在人工智能研究中,“所有的面部圖像都具有同樣的代表性”這一謬論在人工智能研究中扮演著更為微妙的角色,尤其是當(dāng)這些算法都在測量二維圖像的不變面部特征時。相機到頭部的距離,相機參數(shù),輕微的頭部傾斜,微妙的表情和許多其他明顯的細(xì)微的差別都影響著對穩(wěn)定的形態(tài)特征的測量。當(dāng)這些差異沒有被控制的時候,利用人工智能進行研究只是放大了我們?nèi)祟惖钠姟?
此外,使用人工智能進行“面部解讀”的含義在道德上是令人厭惡的。那篇有關(guān)性取向的文章的第一作者聲稱,他的主要動機是提醒LGBT群體,這種技術(shù)有可能對他們造成傷害,尤其是在專制的國家。但是,盡管這項研究聲稱要識別同性戀者和異性戀者之間的真實形態(tài)差異,但它真正做到的是,算法僅能通過公開的同性戀者自己發(fā)布的照片識別出他們的性取向——就像普通的人類能夠識別出的一樣。
這種“科學(xué)”的主張,恰好能夠激勵那些專制的政府將人工智能算法應(yīng)用于識別公民的肖像照片中。而什么又能阻止他們從這些圖片中“解讀”情報、政治取向和犯罪傾向呢?
(選自:Scientific American 編譯:網(wǎng)易智能 參與:李擎)
來源:網(wǎng)易智能