当前位置: www.89677.com > 互联网 > 正文

李鬼变李逵,DeepFake克星来了

时间:2019-11-17 04:34来源:互联网
HanyFarid是美国达特茅斯学院的一名计算机科学家,擅长检测图片和视频造假。他的客户包括大学、媒体组织和法院,他说图片造假不仅变得越来越频繁,也变得越来越高明。他向《自然

Hany Farid是美国达特茅斯学院的一名计算机科学家,擅长检测图片和视频造假。他的客户包括大学、媒体组织和法院,他说图片造假不仅变得越来越频繁,也变得越来越高明。他向《自然》讲述了他与造假者之间你追我赶的“军备竞赛”。

“换脸”也逃不过数字侦探法眼 深度伪造视频有了鉴证工具

李鬼变李逵!“深度造假”视频危害日益加剧

www.89677.com 1

www.89677.com 2Hany Farid。图片来源:Eli Burakian/Dartmouth College

科技日报纽约8月8日电 由人工智能技术合成的虚假视频已达到几可乱真的水平,美国国防部设立的研究项目现已开发出识别这些虚假视频的首批工具。

本报记者 刘 霞

新智元报道

鉴定造假图片的第一步是什么?

一种简单而又有效的做法是反向图片搜索。你把图片放到Google Image Search或TinEye里面进行搜索,它们会显示该图片还在其他哪些地方出现过。哥伦比亚大学的一个项目则将这个做法提高到新的高度,他们开始查找目标图片中从其它图片改换而来的部分。

一般而言,如果一张图片是假的,我们会考虑哪些图案、几何特征、颜色或结构会被破坏。例如,如果有人向一个场景里添加了一个物体,我们知道他们添加的阴影一般是错的。2012年,一段名为“Golden Eagle Snatches Kid” (“金雕抓孩子”)的视频被疯传,它是我最喜欢的案例之一。我们只用了15分钟就发现了阴影的不协调之处:老鹰和小孩都是电脑制作而成的。

制作虚假视频的最常见技术是使用机器学习技术将一个人的脸换到另一个人的脸上。由此产生的视频,也被称为深度伪造视频,不仅制作简单而且逼真度惊人,经熟练的视频编辑人员进行进一步调整后,还可使其看起来更加真实。

今日视点

来源:IEEE Spectrum

如果造假手段非常隐蔽怎么办?

我们有大量分析手段可用。在彩色照片中,每一个像素都需要三个值——分别对应该点的红色、绿色和蓝色的分量。但是,大部分相机每个像素只记录一种颜色,并通过采用该像素周围像素的均值来填补空白。这意味着对于一张照片中的任何给定颜色来说,每一个缺失的像素都与其周围像素存在特定的关联,如果我们添加某物或进行修饰,这种关联就会被破坏,我们就能检测出来。

另一种技术叫JPEG压缩。几乎所有图片都采用JPEG格式存储,它们在保存的时候会损失部分信息。而每一种相机在存储时损失的信息量千差万别。如果使用Photoshop打开JPEG文件,然后再保存,最终一定会和原始文件存在细微差别,这个是我们可以检测出来的。我希望我可以快速鉴别你上传的任意图片的真伪;不过,目前鉴定仍然非常困难,需要专业知识才能发现其中不协调的部分。

深度伪造视频使用了被称为“生成建模”的机器学习技术,其允许计算机在生成具有统计相似性的假实例之前从真实数据中学习。最新的深度伪造技术拥有两个神经网络——生成对抗网络,其共同工作可产生更有说服力的虚假视频。

相机应用变得越来越复杂。用户可以拉长腿部,去除脸上的粉刺,加上动物耳朵等等。现在,有些人甚至可以制作出看起来非常逼真的虚假视频。用来创造这类数字内容的技术已经“飞入寻常百姓家”,被称为“深度造假”。

编辑:金磊

谁使用你的数字取证服务?

我服务的组织包括美联社、路透社和《纽约时报》。全球专攻数字取证的专业人员屈指可数,因此工作范围有限,也就是说你只能分析一些真正举足轻重的图片。不过,有关方面正在为扩大分析范围而努力。去年,美国国防高级研究计划局(DARPA)启动了一个大型项目,我也参与其中。他们尝试在未来五年里创建一个系统,让你可以一天分析成千上万张图片。这是一个雄心勃勃的项目。

我也为法庭提供大量服务。例如,儿童色情作品在美国是非法的,但是电脑生成的儿童色情作品受美国宪法第一修正案“言论自由”条款的保护。如果有人因此被捕,他们可能说图片不是真的,那么我就需要证明这一点。我几乎每天都会收到有关图片骗局的电子邮件。

美国国防高级研究计划局为此设立了“媒体鉴证”项目,以开发能识别深度伪造视频的工具。该项目最初旨在实现现有鉴证工具的自动化,但最近将重点转向了人工智能生成的虚假视频。项目负责人马修·特鲁克表示,研究人员已在GAN操纵的图像和视频中发现了微妙的线索,从而使其能够检测到变化的存在。

美国消费者新闻与商业频道网站(CNBC)在近日的报道中指出,随着技术的不断进步,“李鬼变李逵”!“深度造假”的危害日益加剧,正带来一系列具有挑战性的政策、技术和法律问题。

DeepFake最近成了热点,也带来不少担忧。近期,针对DeepFake可能带来的负面影响,研究人员开发了一个基于神经网络的神奇,能够鉴别DeepFake图像的真伪。

你的技术会应用在科学论文上吗?

我曾经有几次受雇于大学,调查学校内部的学术不端行为。不久前我去美国研究诚信办公室,他们问我“我们怎样才能获得自动化工具?”事实上,我们还未达到自动化程度。不过,创建一种每天检测几十张而非上百万张照片的半自动化流程还是可能的,它可采用诸如克隆检测等工具,查看图片中的某些部分是否是从别处复制粘贴而来的。我和同事都在考虑这件事,它虽然小,但却是DARPA项目的一个重要组成部分。

纽约州立大学奥尔巴尼分校吕思伟教授领导的团队开发了一种非常简单的识别技术。研究人员在观察深度伪造视频时发现,GAN技术生成的人脸很少眨眼,其一旦眨眼,眼球运动很不自然。这是因为,深度伪造视频是基于对静止图像的训练生成的,而静止图像的眼睛一般来说都是睁着的。

深度学习+造假=深度造假

DeepFake的克星,来了!

请谈谈假视频吧? 

现在,研究人员能够将名人镜头剪到一起制成视频,让他们看起来在说些他们实际上从未说过的话,比如奥巴马的一些视频。研究人员还能使用机器学习技术,尤其是可以学习生成虚假内容的生成对抗网络(GAN),制作虚假图片或短视频。这样,让一个生产虚假内容的网站与一个尝试鉴定真伪的“分类器”网站竞争,使造假网站在这个过程中快速增强。

我目睹了一流的造假技术,对此我感到非常担忧。在5-10年内,这些技术将达到一流水准。到达一定阶段后,我们将能够生成逼真的、包含音频的世界领导人视频,这令人非常不安。我想说数字取证技术已经落后于视频造假技术了。

参与DARPA媒体鉴证项目的其他团队也在探索自动捕捉深度伪造视频的类似技巧,如奇怪的头部动作、特别的眼睛颜色等。

“深度造假”是指经过处理的视频,或者通过尖端的人工智能技术生成的其他数字内容,它们会产生看似真实的虚假图像和声音。

自从DeepFake诞生以来,从照片到视频,造假能力可谓是出神入化,人们惊呼:“再也不敢相信自己的眼睛了。”由此所带来的道德伦理与法律的影响也可见一斑。

如何检测造假视频?

视频中也存在类似于JPEG压缩的特点,但是更难检测,因为视频采用一个更为复杂的版本。因此,可以采用机器学习技术来鉴别视频真假。不过,我们用以鉴定视频的方法和鉴定图片的方法相似:通过观察,发现电脑生成内容所缺乏的录制视频原本存在的瑕疵。电脑生成内容总是太过完美。因此,我们要考察的一点是:我们可以看到在现实世界中存在的统计特征和几何特征吗?

另外一种技术来自William Freeman及其MIT同事的杰出研究:如果视频中的人发生了极微小的变化,通过放大,你可以看到与脉搏率对应的人脸颜色的细微变化。这样,你就可以将真人和电脑生成的人区别开来。

达特茅斯大学数字鉴证专家汉尼·费瑞德认为,视频伪造者和数字侦探之间的人工智能博弈才刚刚开始,机器学习系统经训练后往往可超越新的鉴证工具。吕思伟表示,熟练的伪造者可通过收集显示一个人眨眼的图像来绕过他的眨眼工具,但其团队目前已经开发出一种更有效的新技术,要比伪造技术略胜一筹。

“深度造假”这个词结合了“深度学习”和“造假”,是一种人工智能形式。深度学习是人工智能的一个子集,指的是能够学习和自行做决定的一些算法。

针对这一现象,来自加州大学河滨分校的研究人员最近便提出了一种基于神经网络的神器,分分钟鉴别照片真伪!

机器学习算法不能学习掌握这些特征吗?

原则上也许可以。但是在实际操作中,这些算法只有有限的时间和训练数据,很难控制神经网络会采用哪些特征来鉴别视频真伪。GAN只是尝试欺骗训练它的分类器网站。这不能保证它将学习到可以区别图片或视频真伪的所有特征,也不能保证它能糊弄别的分类器网站。

我的对手必须采用我使用的所有鉴定技术,训练神经网络绕过这些方面的分析:例如添加脉搏。这意味着我给他们的工作增加了难度。

这就是一场“军备竞赛”。在我们加速发展的同时,我们的对手也在开发更加精密的技术来增强音频、图片和和视频。只有当业余人员无法完美造假,这场竞赛才会终结。你不断增加造假难度,他们造假的时间和技能要求就越高,于是被抓的风险也越大。(编辑:Ent)

美国纽约大学法学兼职教授保罗·巴雷特说,简单来讲,“深度造假”就是借助深度学习手段制作的虚假视频。深度学习系统可以从多个角度研究目标人物的照片和视频,然后模仿其行为和说话模式,从而制造出具有说服力的虚假内容。

www.89677.com 3

本文经授权转载自Nature自然科研。

巴雷特解释说:“一旦制造出了初步的假象,就可以通过名为‘生成式对抗网络’(GAN)的方法让它看起来更加可信。GAN可发现伪造过程中的瑕疵,从而改进这些瑕疵。经过多轮检查和改进后,‘深度造假’视频就完成了。”

论文地址:

在公共政策机构布鲁金斯学会下设的技术革新中心从事治理研究的非常驻高级研究员、加利福尼亚大学洛杉矶分校电子工程系教授约翰·维拉塞纳认为,从技术的角度来说,任何人只要拥有电脑并且能够上网,就可以制造“深度造假”的内容。

“李鬼变李逵”

该算法的初始测试从未经修改的图像到单个像素级的假图像,其准确率在71%到95%之间,具体取决于使用的样本数据集。

智库新美国(New America)关注网络安全与防御的战略家、高级研究员彼得·辛格指出,“深度造假”的危险在于,这种技术可以让人相信原本并不真实存在的东西是真实的。

该算法还没有扩展到包含对深度假视频的检测。

辛格不是唯一一个提醒“深度造假”所带来的危险的人。

DeepFake是把双刃剑,或成威胁社交媒体时代的新工具

维拉塞纳也表示,这类视频“变得越来越复杂、越来越容易制作,‘深度造假’正带来一系列具有挑战性的政策、技术和法律问题”。这项技术“可以让政治候选人看上去像是说了或做了什么从未真正说过的话或做过的事,以此来破坏他们的声誉”。

加州大学河滨分校电子与计算机工程学教授Amit Roy-Chowdhury表示:

麻省理工学院的一项技术报告指出,可以进行“深度造假”的设备可能成为“伪造虚假新闻者的理想武器,他们希望影响从股票价格到选举的一切”。

“DeepFake是经过修改的图片或者视频,可以向其中插入或删除一部分内容,这就改变了图片原来的含义。”

CNBC网站在其报道中称,“深度造假”将成为“2020年美国总统选举中的大事件”。就像2016年的“虚假新闻”一样,“深度造假”视频将在2020年的美国大选中,掀起更强大的血雨腥风。当然,为了未雨绸缪,包括加州和德州在内的不少州都已经制定法律,当这些“深度造假”视频用于2020年的选举中时,将被认为不合法。

鉴别DeepFake的真伪在科研中可以说是一种挑战,而这种挑战的出现是因为它以一种人类肉眼无法分辨的方式被操纵着。

《麻省理工学院技术评论》杂志旧金山分支机构负责人马丁·贾尔斯在一份报告中写道,事实上,“人工智能工具已被用于把其他人的面部照片安在色情明星身上,让其他人说的话从政客们的口中说出。”他说,这个问题并非由GAN制造,但GAN会让问题变得更糟糕。

而在目前经济、社会快速发展的大背景下,无论是人道主义、产品发布或是竞选活动等方面,DeepFake的视频和图像可能会导致事情发展结果的黑白颠倒。

成也萧何败也萧何

试想一下,若是DeepFake技术被广泛恶意使用,那么我们可能会经常看见某位政治候选人涉嫌实施暴力犯罪、某位CEO承认其公司产品存在安全问题等等扰乱社会平稳发展的事情。

正所谓成也萧何败也萧何!维拉塞纳今年2月份曾撰文指出,虽然人工智能可以用来生成“深度造假”视频,但也可以用来检测它们。由于任何计算机用户都可以使用该技术,越来越多的研究人员将注意力集中在“深度造假”视频的检测上,并且正在殚精竭虑地寻求管控这些“深度造假”视频的方法。

Chowdhury是这项研究的五位作者之一,他表示:

脸书和微软等大公司已经采取行动,旨在发现并删除“深度造假”视频。据路透社报道,这两家公司于今年早些时候宣布,他们将与美国顶级大学合作,建立一个庞大的假视频数据库,以进行深入的分析研究。

这种检测算法可能是对抗社交媒体时代新威胁的有力工具。不过大家也需要注意不要过度依赖这些算法。过度可信的检测算法可能被那些试图传播虚假信息的人武器化。

辛格指出,普通用户也可以用自己的双眼来观测并检查出“深度造假”视频。他说:“目前,如果你近距离观察,会出现一些轻微的突兀之处,比如耳朵或眼睛不匹配、脸部轮廓模糊、皮肤太光滑等等。”

www.89677.com,我认为我们必须小心处理与AI和机器学习有关的任何事情,我们需要了解这些系统给出的结果是概率性的。并且这些概率通常不在0.98或0.99的范围内,恰恰远低于此。我们不应该盲目接受它们。

但是他也强调,随着“深度造假”技术日益精进,视频会看起来越来越真实,人们要分辨也变得越来越困难。

从这个意义上讲,DeepFake实际上只是网络安全中的一个新领域,网络安全是一场永远的军备赛,“好人”和“坏人”都在不断进步。

维拉塞纳也提醒人们,在技术不断发展演进的同时,用来发现造假的检测技术“往往落后于最先进的生成造假的手法”。因此,更值得深思的一个问题是:人们更有可能相信“深度造假”视频,还是将这类视频作为“深度造假”的检测算法?

在这项研究中,工作人员利用当前文献中已有的概念,将它们以一种新颖而又强大的方式结合起来。

只要两步算法,DeepFake图像无影遁形

这个算法其中一个组成部分就是递归神经网络,它将问题中的图像分成小块,然后逐个像素地去观察这些小块。

www.89677.com 4

算法结构框架

神经网络已经在成千上万张深度伪造以及真实图像中进行了训练,因此它已经学会了如何在单个像素级别中凸显伪造痕迹。

Roy-Chowdhury表示,图像被篡改部分周围的边界往往包含着操作的痕迹。图像在被插入物体时,边界区域往往具有一定的特征。

而那些故意篡改图像的人会额外在物体边缘区域下功夫,搞得过于平滑,争取让算法提取不出特征来。

算法的另一部分就是通过一系列编码过滤器传递整个图像。从数学意义上讲,这些过滤器能够使算法在更大、更全面的层次上考虑整个图像的情况。

然后,这个算法就会把从逐个像素输出的结果和更高层次的编码滤波器分析结果进行比对。 当这些并行分析在图像的同一区域触发红色标记时,就会被标记为“可能是DeepFake”。

假如,一只小鸟的图像粘贴到了原本只有树枝的图像。

www.89677.com 5

在这种情况下,逐像素(pixel-by-pixel)算法可能会将鸟爪周围的像素标记为“有问题”。而编码器算法可能会在更大的层次上,例如其他边界问题或更大尺度级别的异常。

只要这两种神经网络标记处鸟周围图像的同一区域,Roy-Chowdhury团队的算法就会把鸟和树枝的照片归类为“可能是DeepFake”。

下一步,DeepFake视频也将“在劫难逃”

DeepFake的图像目前已然能够鉴别真伪,那么下一步就是视频了。

Roy-Chowdhury表示现在需要对算法做一个扩展,并应用到视频中。这种算法可能需要考虑图像如何逐帧变化,以及能否从变化中及时识别出任何可检测的模式。

鉴于DeepFake检测的紧迫性,以及随着世界各地越来越多不怀好意的人试图利用这种虚假信息作恶。Roy-Chowdhury呼吁其他研究人员能够利用他们的算法在更真实的环境中做检测。

论文:

博客:

编辑:互联网 本文来源:李鬼变李逵,DeepFake克星来了

关键词: