Deepfake检测算法永远不够

人工智能2020-07-28 12:35:08
导读您可能已经看过上周有关研究人员开发能够检测超过90%准确度的深度伪造的工具的新闻报道。令人欣慰的是,通过这样的研究,人工智能产生的

您可能已经看过上周有关研究人员开发能够检测超过90%准确度的深度伪造的工具的新闻报道。令人欣慰的是,通过这样的研究,人工智能产生的假货带来的危害将是有限的。只需通过一个深度检测器运行您的内容并爆炸,错误的信息就消失了!

但专家表示,能够发现AI操纵视频的软件只会对这个问题提供部分解决方案。与计算机病毒或生物武器一样,来自深度伪造的威胁现在已成为景观的永久特征。虽然从政治角度来看,深水是否是一个巨大的危险是有争议的,但它们肯定会破坏女性的生活,现在通过虚假裸体和色情的传播。

南加州大学副教授兼Pinscreen首席执行官李昊告诉The Verge,任何深度检测器都只能在短时间内工作。事实上,他说,“在某些时候,根本不可能检测到[AI假货]。因此,需要采取不同类型的方法来解决这个问题。“

发现深层伪造就像发现病毒一样:不断变化的挑战

李应该知道 - 他是帮助设计最近的深度探测器之一的团队的一员。他和他的同事建立了一种算法,能够通过追踪每个人独有的小型面部动作来发现像唐纳德特朗普和伊丽莎白沃伦这样的着名政治家的视频的人工智能编辑。

这些标记被称为“软生物测定学”,对于目前模仿的AI来说太微妙了。这些包括特朗普在回答问题之前如何噘起嘴唇,或者沃伦如何抬起眉毛强调一点。该算法通过研究过去的个人镜头来学习发现这些动作,结果是一种在发现几种不同类型的深度伪造时至少准确率为92%的工具。

不过,李说,不久之后工作就没用了。正如他和他的同事在他们的论文中所述,深度技术正在发展,具有病毒/反病毒动态。

一种深度检测算法通过跟踪目标面部的细微运动来工作。

眨眼。早在2018年6月,研究人员发现,由于深度拍摄系统没有接受过闭眼人士录像的培训,因此他们制作的视频具有不自然的闪烁模式。AI克隆没有足够频繁地闪烁,或者有时根本没有闪烁 - 这些特征可以通过简单的算法轻松发现。

但接下来发生的事情有些可预测。“这种法医技术公开后不久,下一代合成技术就在他们的系统中眨眼,”李和他的同事写道。换句话说:再见,深度检测器。

具有讽刺意味的是,这种来回模仿了深度核心技术:生成对抗性网络,即GAN。这是一种机器学习系统,由两个神经网络组成,协同工作。一个网络生成假的,另一个网络尝试检测它,内容来回反复,并随着每个凌空而改善。这种动态在更广泛的研究领域得到了复制,每一篇新的深度检测论文都为深度伪造者提供了一个新的挑战。

AI基金会的研究副总裁Delip Rao同意,挑战远远大于简单的检测,并说这些论文需要进行透视。

例如,上周公布的一种深度检测算法的准确性高达97%,但正如Rao指出的那样,当考虑互联网平台的规模时,3%仍可能具有破坏性。“假设Facebook部署了[算法]并假设Facebook每天获得大约3.5亿张图像,那就是大量错误识别的图像,”Rao说。“由于模型中的每一个误报,你都会损害用户的信任。”

FACEBOOK等社交媒体平台没有明确的深陷政策

Rao说,开发能够发现假货的技术非常重要,但更大的挑战是使这些方法变得有用。社交平台仍然没有明确定义他们的票据政策,因为Facebook最近发布了一个假的马克扎克伯格视频,并且彻底禁止是不明智的。

“至少,如果根据自动化系统检测到被操纵的东西,视频应该贴上标签,”李说。他说,在假货无法察觉之前,这只是时间问题。“视频最终只是像素。”

Rao和他在AI基金会的同事正在研究融合人类判断力的方法,但其他人则认为验证真实的视频和图像应该是起点,而不是发现假货。为此,他们开发了可以自动水印和识别摄像机拍摄图像的程序,而其他人则建议使用区块链技术来验证来自可靠来源的内容。

但是,这些技术都不会“解决”这个问题;而不是互联网以其当前形式存在。正如我们在虚假新闻中看到的那样,仅仅因为一段内容很容易被揭穿,这并不意味着它不会被点击,阅读和在线共享。

最重要的是,定义网络的动态 - 无摩擦共享和注意力的货币化 - 意味着深度基金会总能找到受众。

最近有关开发人员创建应用程序的消息,该应用程序可以让任何人制作虚假裸照的衣服女性照片。由此产生的图像显然是捏造。当你仔细观察它们时,皮肤和肉体模糊不清。但是他们一眼就足够令人信服,有时这就是所需要的。

免责声明:本文由用户上传,如有侵权请联系删除!