英伟达的面部化妆方法真的很赞
一种新的生成式对抗网络方法让技术观察人士摸不着头脑:图像怎么可能是假的,但看起来却如此真实?
研究人员在一段视频中说:“我们发明了一种新的发生器,它可以在没有任何人类监督的情况下,自动识别图像的不同方面。”他们在他们的论文中指出,“新的架构导致了高级属性的自动学习和非监督分离。”
让假照片看起来像真的是一项艺术工作,这并不是什么新鲜事,但是这三位研究人员将这项工作提升到了一个新的水平。
他们在论文中详细阐述了他们的技术,“一个基于风格的生成器架构,用于生成对抗性网络。”这篇论文发表在arXiv上,引起了广泛的关注。
斯蒂芬·约翰逊(Stephen Johnson)在《大思考》(Big Think)杂志上表示,调查结果“相当惊人”。威尔·奈特在《麻省理工学院技术评论》上说,我们看到的是“令人震惊的,几乎是怪诞的现实主义”。
研究人员Tero Karras、Samuli Laine和Timo Aila来自Nvidia。他们的方法侧重于构建一个生成式的对抗网络(GAN),在这里学习生成全新的图像,模仿真实照片的外观。
作者说,这段视频中的所有图像都是由他们的发生器产生的。“它们不是真人的照片。”
他们的论文,”奈特说,展示了如何使用这种方法来玩,并重新混合元素,如种族,性别,甚至雀斑。
魔术酱是他们的风格为基础的发电机。Big Think将其解释为自动生成图像的传统技术的改进版本。
他们的技术让你一头雾水,笑到最后。
你作为一个人想的是“形象”。然而,生成器考虑的是“样式集合”。
每种样式都在特定的范围内控制效果。有粗款、中款、细款。(粗式指姿势、发型、脸型;中庸是指面部特征;的眼睛。好的款式指的是配色方案。
与此同时,威尔·奈特(Will Knight)对甘斯做了一些观察:“甘斯利用两个相互竞争的神经网络训练计算机,使其能够很好地学习数据集的性质,从而生成令人信服的假数据。当应用于图像时,这就提供了一种生成高度逼真的假图像的方法。”
Johnson提供了GAN概念的背景:
2014年,一位名叫伊恩·古德费洛(Ian Goodfellow)的研究人员和他的同事们写了一篇论文,概述了一种新的机器学习概念——生成对抗网络。简而言之,这个想法涉及到两个神经网络之间的竞争。其中一个就像一个发电机,看着狗的图片,然后尽其所能创造出一个它认为狗是什么样子的图像。另一个网络则充当鉴别器,试图分辨出真假图像。
“一开始,信号发生器可能会产生一些看起来不像狗的图像,所以鉴别器就会将它们击落。”但是生成器现在知道它在哪里出错了,所以它创建的下一个图像稍微好一些。从理论上讲,这个过程会一直持续下去,直到“发电机”创造出狗的良好形象。”
英伟达的团队在GAN混合物中加入了风格转换原则。
Devin Coldewey在TechCrunch上说:“汽车、猫、风景——所有这些东西或多或少都符合小、中、大特征的同一范式,这些特征可以被单独分离和复制。”
从技术角度来看,他们的工作因在真实人物的图像中取得了令人印象深刻的效果而受到赞扬。从一个流行的观点来看,这种进步被认为是危险的。约翰逊说:“近年来,生成逼真的人工图像的能力引起了人们的关注。这些图像通常被称为‘深度伪造’,因为它们的目的是让图像看起来像可识别的人。”
科技观察网站的页面上充斥着关于这有多“令人毛骨悚然”的评论,有些评论只是简单的问题:“我们为什么要这么做?”“谁来买单?”“如果我们不设定监管界限,我认为人类历史上的下一场大战将会(可能会输掉)与我们创造的人工智能对抗,”一名回应者表示。
尽管如此,并不是所有的评论都反映出不安。这是一项技术进步,一些评论指出,应用可能有助于某些部门。设计师、广告公司创作者、甚至视频游戏创作者都可以使用这项技术。