• 短视频造假术,熟知一下? !


    发布时间:2019-06-15 00:53

  • 从古于今,“骗取”和“造假”这两个词可谓是贯通了人类的历史。到了当代社会,面临着互联网上那些似是而非的繁芜讯息,“有图有事实”开始作为网友们的诉求。

    得以看出,绝年夜多半人均是承认一点的——惟独拿出坚实的证据,才能证明你说的便是事实。将这些证据的说服力排一个序,可能是文本>相片>音频>视频。

    然而,随着ps的崛起,“照骗”逐渐失去了人们的信任,音频和视频已经被视为更可靠的证据来源,可是,在ai入军短视频制作后,变乱正在发生着变动。在未来,人们年夜概必要处置惩罚更多真假难辨的音视频。

    ai在视频造假上的进阶之路

    在寻凡人看来,短视频造假的手段没有非便是某些“断章取义”的剪辑罢了。然而,ai可没那么简单,在短视频“造假”上,它不止要以假乱真,更要没有中生有。平常而言,ai在短视频上造假的手段有以下三种:

    1.低级进程:移花接木

    在短视频“造假术”里,最重年夜的不是图像的拼接,而是音频的陆续性。想一想,即便你将奥巴马和特朗普两小我的视频剪辑在一起,想要奉告年夜家他们“同台演出”了,无他们谈话的声音,其效益可能就等于n张静态相片叠加而已。

    ai正在盘算合成人们在现实中从未说过的话。研讨人员就曾利用奥巴马的演讲视频熬炼ai的研习体系,让体系的神经网络学会怎样将各类语音特性与对应的口型关系在一起,生成cgi唇动,在3d姿态匹配的协助下将cgi唇动与奥巴马的视频整合在一起。相当于说,他们能够利用有关音轨伪造一段令人难辨真伪的视频。

    利用ai体系,用户得以任意编辑人类语音,adobe曾表示它得以像 photoshop 编辑图片一样用于调整视频中的发音和对话。咱们如今得以创建政治家、名人、演说家的视频片段,并且不管内容怎样。

    2.中级进程:改头换面

    在这个进程里,ai就不是合成了,而是对视频里的内容进行编辑。通过人脸检测和五官鉴别,对人脸的关头点实时追踪,让人们在动态视频中得以对本身脸进行改造。

    这一技术附属动作捕获技术中的一个分支,叫面部捕获。这些脸上的黄点,便是人脸脸色变更中的关头点,通过面部追踪,打算机只必要这些讯息就能合成脸色。

    近日,微视就颁发了安卓4.4版本,推出了实时美妆、五官重塑等新功能,包孕此前已在ios版本上线的实时长腿、音控魔法功能,也在安卓上同时更新。

    视频里化妆均是小儿科了,ai还能在视频里给你换脸呢。在片子《星球年夜战外传:侠盗一号》中,技术人员通过捕获一位当代演员盖·亨利的脸色,合成了此外一位已经逝世的演员彼得·库欣,使其再度浮如今了年夜荧幕上。

    3.高级进程:没有中生有

    合成声音尚能懂得,合成动作你敢相信吗?近日,在mit(麻省理工学院)的论文synthesizing images of humans in unseen poses中,研讨人员说起了一种模块化的生成神经网络,用从人类运动视频中提取的成对图像和姿势熬炼以后,它能够为一小我合成出没做过的新姿势。而且,这个模型在无过程特意熬炼的状态下,能够生成一段陆续的视频。

    相当于说,单凭一张相片,ai就能随便摆布相片中的人,使人物作出一系列动作,视频的合成十分天然。

    (图为该技术合成的网球运动视频 gif来源:量子位 公众号)

    这固然只是新技术的冰山一角,咱们难以对当代人工智能的视频处置惩罚技术做出全面的概述,但咱们总能从中找出某些有意思的应用。好比:从一张 2d 图片中创建 3d 面部模型;变动视频中的光源和暗影;在元首选举直播中让特朗普酿成秃第一等等。

    伪造与证伪的技术总是交互上升

    不得不谈,ai切实其实拥有异常强的视频造假能力。但咱们也垂垂意识到了视频造假的危害。随便放在网上的视频和声音均必要咱们去认真辨认,要是有犯罪分子利用该技术进行讯息诈骗,咱们尽管不是权贵,但也经不起损失。

    尤其在新闻业,一旦人们明白目前有伪造的视频和音频在散播,即便他们看到的是实在视频,也会开始产生 猜忌。所以,要是ai能够让咱们像处置惩罚图片一样放松处置惩罚音频、视频内容,这其真实某种程度上削弱了媒体的可信度。