AI时代,如何破解“眼见为假”

AI时代,如何破解“眼见为假”

编者按“Deepfake”(深度伪造)技术的开源,让AI“换脸”一时大兴其道。随着这一技术算法的日趋成熟,无论是人像还是声音、视频都可以被伪造或合成,甚至可以达到不能辨别真伪的程度。由此,诸多社会问题开始引发。AI造假能做到什么程度,虚假音视频又该如何控制,AI造假检测技术能否成为“深度伪造”这场技术困境突围的最佳解决方案之一?为了回答上述问题,中国经济时报记者专访了国内区块链及AI安全与质量保障代表性企业——深信科创信息技术有限公司创始人兼CEO杨子江。

本报记者 王小霞

科技从来都是双刃剑,AI(人工智能)在为人们带来便利的同时也带来了威胁。

自Deepfake(深度伪造)“换脸”技术出现以来,各种使用AI技术造假的视频层出不穷。随着技术的进步,Deepfake的危害日益加剧,并带来了一系列具有挑战性的政策、技术和法律问题。

“我们正是看到了这样的风险,才有针对性地推出了AI造假检测技术平台,希望帮助应用者通过简单操作,快速识别假视频和假音频等,以减少AI技术滥用所带来的伤害。”国内区块链及AI安全与质量保障代表性企业——深信科创信息技术有限公司(以下简称“深信科创”)创始人兼CEO杨子江在接受中国经济时报记者专访时表示:“在未来的AI时代,人们要有起码的知情权,知道自己看到的视频到底是真是假。”

AI让音视频造假越来越容易

在回国创办深信科创之前,杨子江曾就职于NEC美国研究院,负责芯片设计质量保障,之后担任西密歇根大学计算机系教授。2018年任国际可靠软件工程会议(SETTA)程序委员会主席,2019年被推选为IEEE国际软件测试及验证大会(ICST)主席。用他自己的话说,“过去一直做的是测试软件安全,现在是以AI治AI,‘揪’出假音视频。”

2017年,一个名为“DeepFakes”的开发者把AI“换脸”技术开源,打开了AI造假的“潘多拉盒子”。

“Deepfake是一种将深度学习与‘假脸’合成相结合的技术,是深度图像生成网络的一种应用。”杨子江表示,目前,主流的“假脸”生成技术,包括进行表情迁移的face2face技术,进行人脸替换的faceswap技术,还有使用对抗生成网络的styleGan和ZAO等,这些技术的出现和网络传播,让音视频造假的成本变得很低。

2018年4月,美国前总统奥巴马说“特朗普是个彻头彻尾的笨蛋”的视频,在推特上获得超过200万次的播放。2019年5月,特朗普在推特上转发并嘲讽美国众议长佩洛西说话结巴的视频引发大量关注。同时,一家国外公司还发布了世界各国领导人演唱约翰·列侬歌曲《Imagine》的视频等,这些都被证明是由Deepfake技术生成的伪视频。这些虚假信息除了将直接影响个人信誉外,甚至还可能引发“蝴蝶效应”导致整个市场秩序的紊乱。

“现在,Deepfake最显著的影响就是把一些明星的脸合成到色情视频中。”杨子江说,不仅是公众人物,每个人都面对这一威胁。

更严重的是对于政治选举、公共安全以及经济体系的威胁。CNBC网站在其报道中称,Deepfake将成为“2020年美国总统选举中的大事件”。此外,据《华尔街日报》报道,有一名犯罪分子运用AI技术,合成了公司老板的声音,并让一家总部位于英国的能源公司上当受骗,通过诈骗电话让公司下属转了22万欧元(约合173万元人民币)到骗子的账户上。

2019年初,随着一段“杨幂换脸朱茵”的视频火爆网络,又开启了中国的AI“换脸”元年。紧随其后,各类AI“换脸”作品和应用不断出现,AI“换脸”伴随着普通人的“尝鲜”彻底走向了技术普及和产业失控。

“随着这一技术算法的日趋成熟,无论是人像还是声音、视频都可以被伪造或合成,甚至达到几乎不能辨别真伪的程度,并开始引发诸多社会问题,人脸识别也面临着被欺骗的考验。”杨子江告诉记者,未来,可能会出现完全由AI造假技术合成出来,而现实中根本不存在的人。随着Deepfake技术被滥用,传统意义上“真实”与“虚假”的界限被模糊,这对于社会生活的影响前所未有。

以AI治AI造假检测技术成破解新思路

“Deepfake”技术带来的潜在安全威胁和信任危机,令各国政府纷纷出手,不断加强对该技术进行监管,以遏制恶性苗头的出现。

2019年6月12日,美国国会提出《深度伪造责任法案》,旨在通过限制深度伪造合成技术,打击虚假信息的传播。2019年年底,我国发布了《网络音视频信息服务管理规定》,对基于深度学习、虚拟现实等新技术、新应用的制作、发布、传播非真实音视频的信息服务进行了规范。

虽然各国纷纷加强了监管措施,但遏制深度伪造技术滥用的根本手段,还是需要“反伪造”技术研究的加强与成熟。

杨子江认为,由技术引发的灾难只能由更先进的技术来解决,这似乎是AI研究者的唯一逻辑。业内专家分析指出,AI“换脸”的造假检测技术,目前正成为“深度伪造”这场技术困境突围的最佳解决方案之一。

“我们的AI研发团队在Deepfake出现之初,就意识到该技术可能会产生广泛的负面影响,因此开始研究应对措施,剖析Deepfake技术的实现细节,对生成的假脸样本进行缺陷分析和检测技术验证。”杨子江表示,最新的算法成果,对目前出现的主流Deepfake技术生成的假脸,均有很高的检测准确率。

造假检测技术是如何来识别这些虚假视频的?杨子江介绍,团队通过对Deepfake技术原理及其生成样本的质量分析,发现在生成假脸时往往会留下肉眼无法分辨,但是算法可以识别更改过的痕迹。受神经网络实现机制的影响,生成的假脸往往是固定尺寸的,在进行人脸融合时,会存在分辨率不一致的现象。另外,生成的假脸,其五官的空间位置关系也会出现不匹配的情况,如鼻尖朝向与面部整体朝向的一致性等。在此基础上,合成的视频往往也会留下“假脸”线索。由于生成的“假脸”都是按图片逐帧处理的,因此可能会出现不自然的眨眼睛,头部运动不协调等问题。

在发现这些问题的同时,深信科创AI研发团队利用自身在深度学习上的技术优势,开发出了从端到端的“假脸”检测算法和产品。

“首先,我们对目前出现的各种假脸数据,通过特征工程,建立了规模庞大的数据库,解决了数据多样性问题。其次,借鉴业界经验,有针对性的构建神经网络,较好地解决算法通用性的问题。最后,依托西安交叉信息核心技术院的大规模计算集群环境,开发出了高效率、高精度的检测模型。”杨子江说,通过对实际数据的检测处理和其产品官网的使用反馈来看,得到了用户高度认可。

AI造假检测前景可期

“从国内和国外来看,目前AI造假检测技术正处于起步发展阶段,但大家都知道,这是未来的方向。”杨子江说。

“借助AI来鉴别AI造假,这就需要鉴别造假的团队拥有比造假者更深厚的技术实力。”杨子江告诉记者,深信科创搭建了“豪华”的技术团队,科研人员由来自中国、美国及新加坡的软件测试与安全领域的计算机专家和教授组成。其中,首席科学家Moshe Vardi院士为美国科学院、美国工程院、美国艺术科学院、欧洲科学院、欧洲人文和自然科学院五院院士。

得益于此,2019年杨子江的深信科创获得华人唯一的图灵奖得主、清华大学院士姚期智担任院长的西安交叉信息核心技术研究院投资及孵化。

“AI造假检测未来的市场会很大,从个人到企业、政府机构可能都有需要,应用领域非常广泛。”在杨子江看来,在未来,不仅个人需要针对自身感兴趣的音视频进行鉴别,社交媒体也需要通过采购Deepfake甄别技术,并将其加入平台视频发布审核流程当中。同时,案件调查、法庭辩论中涉及的视频、图像等证据材料,警察、律师等人员如果无法单凭肉眼识别证据是否是基于Deepfake伪造,同样需要专业工具鉴定真伪。

“我们现在正在和银行以及监管部门洽谈,基于Deepfake技术的快速发展,大家必须尽快做好应对准备。”杨子江表示,未来的AI,应该是安全可控的AI。技术是无罪的,但当技术进步有可能超出人类的把握能力,有可能对人类生活造成威胁的时候,对技术应用加以防范和管控却也是必要的。


分享到:


相關文章: