国产精品久久国产_特级无码一区二区三区毛片视频_在线观看亚洲最大黄色网站_亚洲 中文 自拍_中文无码电影2020_成人片黄网站色大片免费西瓜影院_日本精品在线二区_北京老熟妇偷人偷拍_羞羞色院91精品永久站_欧美日韩国产不卡

  • 服務熱線:13728883399
  • wangyp@shangeai.com

新一代GAN如何攻破人臉識別系統(tǒng)

時間:2019-02-13 10:10:59點擊:1269次

還記得英偉達去年推出的StyleGAN嗎?全新的生成器架構讓這個“新一代GAN”生成的人臉真實到可怕。現在,StyleGAN已經開源,包括源代碼和官方TensorFlow實現,附有詳細使用說明。多說一句,還請謹慎使用,不要讓StyleGAN成為第二個DeepFake。

還記得英偉達震撼世人的新一代GAN嗎?

以假亂真的精細人臉生成,令不少研究人員都驚呼:已經無法分辨虛擬和現實!

上述人臉全部由計算機生成,StyleGAN的全新風格遷移生成器架構能控制發(fā)色、眼睛大小等臉部特征。來源:github.com/NVlabs/stylegan

現在,這個StyleGAN已經開源,而且附上官方TensorFlow實現(點擊“閱讀原文”了解更多)。

論文、源代碼、高清Flickr人臉圖像數據集等所有的材料都公布了出來,非商業(yè)使用的情況下,這些素材任你使用和修改(Flickr人臉數據集參考另外的開源協議)。

Github庫里還包含了一個基礎的預訓練StyleGAN生成器 pretrained_example.py,下載后使用相關Python代碼,就可以直接用來生成圖像了。

另一個更高級的樣例是 generate_figures.py,這個腳本是用來生成論文中風格變換/混合、鼻子大小和發(fā)色調整等功能。

更詳細的使用說明請參考Github庫(點擊“閱讀原文”訪問)。

不過,需要提前說明的是,要生成1024*1024分辨率的圖像,如果使用英偉達Tesla V100 GPU做訓練,硬件配置和訓練時間如下:

“使用較少的GPU可能無法實現與論文同樣的效果——如果你想跟我們的技術一較高下,我們強烈推薦你使用同樣數量的GPU。”

開源StyleGAN,莫非還有一絲賣顯卡的因素(誤)。

新一代StyleGAN:圖像逼真到可怕,能生成世界萬物

基于GAN的架構一個又一個推出,要是你一時間想不起來StyleGAN也沒關系,多上幾張圖有助于你回憶:

這個模型并不完美,但確實有效,而且不僅僅可用于人類,還能用于汽車、貓、風景圖像的生成。

英偉達研究人員在論文中寫道,他們提出的新架構可以完成自動學習,無監(jiān)督地分離高級屬性(例如在人臉上訓練時的姿勢和身份),以及生成圖像中的隨機變化,并且可以對合成進行更直觀且特定于比例的控制。

換句話說,這種新一代GAN在生成和混合圖像,特別是人臉圖像時,可以更好地感知圖像之間有意義的變化,并且在各種尺度上針對這些變化做出引導。

例如,在上面的動圖中,其實面部已經完全變了,但“源”和“樣式”的明顯標記顯然都得到了保留。為什么會這樣?請注意,所有這些都是完全可變的,這里說的變量不僅僅是A + B = C,而且A和B的所有方面都可以存在/不存在,具體取決于設置的調整方式。

而StyleGAN之所以強大,就在于它使用了基于風格遷移的全新生成器架構:

傳統(tǒng)生成器架構和基于風格的生成器架構對比

在傳統(tǒng)方式中,隱碼(latent code)是通過輸入層提供給生成器的,即前饋網絡的第一層(圖1a)。而英偉達團隊完全省略了輸入層,從一個學習的常量(learned constant)開始,從而脫離了傳統(tǒng)的設計(圖1b,右)。在輸入隱空間Z中,給定一個隱碼z,一個非線性網絡 f:Z→W首先生成w∈W(圖1b,左)。

英偉達團隊的生成器架構可以通過對樣式進行特定尺度的修改來控制圖像合成??梢詫⒂成渚W絡和仿射變換看作是一種從學習分布(learned distribution)中為每種樣式繪制樣本的方法,而將合成網絡看作是一種基于樣式集合生成新圖像的方法。修改樣式的特定子集可能只會影響圖像的某些方面。

負責任地使用,避免成為又一個“DeepFake”

之前,大多數研究都集中在如何提高“換臉”技術上,也就是如何讓計算機生成超逼真的人臉。

誰料,這種技術發(fā)展的濫用造成了反效果,也即所謂的“DeepFake”?,F在,DeepFake已被用于指代所有看起來或聽起來像真的一樣的假視頻或假音頻。

去年底,Idiap 生物識別安全和隱私小組負責人 (注:Idiap研究所是瑞士的一家半私人非營利性研究機構,隸屬于洛桑聯邦理工學院和日內瓦大學,進行語音、計算機視覺、信息檢索、生物認證、多模式交互和機器學習等領域的研究)、瑞士生物識別研究和測試中心主任 Sébastien Marcel 和他的同事、Idiap 研究所博士后 Pavel Korshunov 共同撰寫了論文,首次對人臉識別方法檢測 DeepFake 的效果進行了較為全面的測評。

他們經過一系列實驗發(fā)現,當前已有的先進人臉識別模型和檢測方法,在面對 DeepFake 時基本可以說是束手無策——性能最優(yōu)的圖像分類模型 VGG 和基于 Facenet 的算法,分辨真假視頻錯誤率高達 95%;基于唇形的檢測方法,也基本檢測不出視頻中人物說話和口型是否一致。

Pavel Korshunov 和 Sébastien Marcel 指出,隨著換臉技術的不斷發(fā)展,更加逼真的 DeepFake 視頻,將對人臉識別技術構成更大的挑戰(zhàn)。

“在 DeepFake 方法和檢測算法之間的一場新的軍備競賽可能已經開始了。”

StyleGAN的開源,無疑也會增強DeepFake的制作。因此,谷歌大腦研究員Eric Jang呼吁,請負責任地使用!

原文標題:英偉達“AI假臉王”開源:新一代GAN攻破幾乎所有人臉識別系統(tǒng)

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

  • 標簽: