深度学习下的人脸识别技术:从“后真相”到“无隐私”

栏目: 数据库 · 发布时间: 4年前

内容简介:图片来源@视觉中国文|五矩研究社,作者|劫镖

深度学习下的人脸识别技术:从“后真相”到“无隐私”

图片来源@视觉中国

文|五矩研究社,作者|劫镖

2018年7月,《大西洋月刊》曾发表过一篇人脸识别的文章,名字叫做《开启假视频时代》,文章作者富兰克林·福尔还曾写过一本书,书名叫做《无思想的世界:高科技的生存威胁》。

这篇文章大体讲的是,假新闻的出现将我们带入一个叫做后真相的时代,不到三年时间,人脸识别技术飞速进展,假视频会让真相进一步坍塌,同时,未来社会可能会进入一个无隐私时代。

最近一周发生的两件事,让人们愈发怀疑,AI,究竟会把人类文明带向何方。

视频换脸“骗术”升级

Facebook CEO扎克伯格在上周被“整”了。

小扎于17年录制的一段视频,经过AI技术后期加工后,变成了一个新视频被重新上传到了Instagram上,视频中的所有动作如初,但内容却与原版大相径庭。

深度学习下的人脸识别技术:从“后真相”到“无隐私”

在视频中,扎克伯格毫无“人味”地说到:“想象一下,有一个人,完全控制着数十亿人被盗的数据,他们所有的秘密,他们的生活,他们的未来。我完全归功于幽灵。幽灵告诉我,谁能掌控数据,谁就能掌控未来。“

庆幸的是,这条几乎以假乱真的视频编辑者来自一家营销机构,在发布时就已标注了假视频标签,才不至于发酵成为社会新闻。

相比在市场公开的技术,上周一队科研小组公布的最新研究,让视频造假的真实度登上了一个新台阶。

研究小组的成员来自斯坦福大学、德国马克斯普朗克信息学院、普林斯顿大学和 Adobe 研究院,这份研究报告被提交到了计算机图形顶会 SIGGRAPH 2019。

深度学习下的人脸识别技术:从“后真相”到“无隐私”

论文中指出,通过深度学习,可以在一段视频中针对某一句话增加、删掉甚至是修改任意词句,让视频中的演讲者说出任意想说的话,并且看起来仍然十分自然,就像是演讲者自己说出来。

举例来说,如果今天的黄金报收价格是300元,经过修改的视频能让你听起来和看起来都说的是100元。

这项技术的测试报告中, 59.6%的受试者认为造假视频才是真实的视频;20%的受试者反而认为原始未经编辑的视频是假的 ,足以说明加工过的视频骗过了大多数人的眼睛。

据了解,该开发者小组下一步有意将这项技术用在即时视频通话中进一步“完善”技术。

深度学习下的人脸识别技术:从“后真相”到“无隐私”

一周之内两起假新闻报道,在美国引发了新一轮对基于深度学习下的人脸识别技术的大讨论。

硬件GPU和AI神经网络,这两大要素让面部识别技术近年来得到极大发展。不久前,三星利用AI人脸识别技术仅凭照片“复活”了过蒙娜丽莎和梦露,效果不甚理想,数周时间,视频换脸技术便几乎已经可以做到以假乱真,欺骗大多数人。

对于深度神经网络的研发投入使人脸识别的发展一日千里。摩尔定律下运算能力的指数级增长,又使得造假成本越来越低。

在斯坦福的报告中提到,40分钟的视频训练素材就能达到论文中视频展示的最优效果,即便只使用极少量的数据,比如两分钟的视频进行训练,最终合成的人脸误差率也只有0.021,仅比40分钟视频(误差率0.018)高了0.003。

这意味着,仅用一段抖音视频就有可能实现近乎完美的欺骗,从而实现在网络上大范围传播。这还意味着,文明社会将从无图无真相,演化为视频也无法成为真相。

以神经网络和人脸识别技术为基础,以DeepFake(深度欺骗)为代表的换脸术,让很多人不禁怀疑,未来网路上是否还能传播真相?

“变脸”——正义与邪恶对抗

吴宇森曾经拍过一部非常著名的好莱坞电影——《变脸》,特拉沃尔塔与凯奇之间,正义与邪恶的争斗,堪比如今AI的两面性。

《纽约客》杂志在18年底刊登的文章中,详细讨论了我们是否应该对人脸识别技术保持警惕:

深度学习结合面部识别技术,能够为治安、医疗和农业等领域带来革命,同时也有随时被武器化或滥用的危险。

利好的消息是,利用AI人们经可以在博物馆将达利复活,或者通过电影后期修改演员说错的台词,大幅提升我们在日常工作中的效率或增加娱乐的沉浸感。

特别是在安防方面,面部识别技术进一步演化,会升级为步态分析技术,发现每一个人身体独特而细微的动作模式,如此即使罪犯刻意伪装,人工智能也可以精准识别出来。

不过,也有很多利用AI作恶的例子。去年非常火爆明星换脸“出演”色情片一事就在好莱坞引发了轩然大波。

同时,AI技术下的假新闻更容易产生社会或政治影响,今年油管上黑人兄弟对奥巴马的镜像级模仿,观看量已接近千万。几周前,仅仅是两段关于美国众议院议长南希·佩洛西的鬼畜视频,也同样对美国顶级政客带来了巨大的负面。

深度学习下的人脸识别技术:从“后真相”到“无隐私”

国内媒体品玩对此的看法是:“在当前社会极端化和对抗日益严重,以及假新闻盛行的大环境下,类似的视频往往具有极强的传播势能。而更先进的技术让视频的质量变得更好,相应地对受害者的伤害,以及对社会造成的进一步撕裂,只会更加严重。”

假的新闻、图片、视频,仅仅是人脸识别技术在当下社会的深度使用,在《纽约客》文章的最后提出:或许人脸识别技术的进化版,会将我们带入一个无隐私社会。

“无隐私”时代

前文中提到的步态分析技术便是人脸识别更高阶的运用之一,除此之外还有行为分析。

试想一下,如果你的老板通过办公室里的摄像头,就能提早得知你是否患上重病,从而提前找借口解除劳动合同。这样的未来也许真的会发生。

随着公共场所摄像头的数量不断增加,整个社会的图像死角会越来越少,就像电影中描绘的那样,车载、手机、眼镜在扫描周围环境时“无意”采集的数据越多,我们距离无隐私时代就会越近。

用欧盟司法专员的话说,“今天的个人数据,就如同(观看)人们在水族馆里裸泳一样。”

于是,数据与隐私的价值正变得尤为凸显。

正所谓屁股决定脑袋,AI嵌入人类社会的程度越深,越会引发我们对于互联网、免费、大数据以及隐私保护的思考与警惕。

很多人都知道,类似Facebook和谷歌等大部分互联网公司的主要收入来自于广告,更精准的数据意味着广告商更容易判断你的购买倾向,选择恰当的投放策略。

因此,在2018年欧盟颁布了《通用数据保护条例》和戏称为“表情包大屠杀法案”的《著作权指令》修改,同时加速推进《数字化单一市场战略》和《数字版权法》等发案,这些法律都指向了用户信息采集的源头,一旦推出, 未来欧盟国家的用户数据,要么是法律禁止采集的,要么是要向内容提供方付费的。

互联网内容的免费时代正在走向尽头的同时,用户隐私也得到了空前的保障。欧盟的法律覆盖了5亿欧洲人,但产生的涟漪,会波及全世界。《经济学人》对此的看法是,欧盟的决定,会影响硅谷的未来。

目前国内还处在 “用隐私换便利”的过程,不少用户对于个人数据和隐私保护的意识尚未建立,远没有欧盟那么看中。但相信每个人中国网民都有过隐私被窥视的经历,以及无可奈何的失控感。在这点上,欧盟的做法值得借鉴。

《终结者》电影的一句台词说,无论支持还是反对,我们都无法避免科技时代的到来。

如果说互联网后真相时代无可避免,至少别让我们像《使命召唤》里形容的那样:“you are not a human, you are an asset of data.(你不是人,你只是一堆有价值的数据)”

【钛媒体作者介绍:五矩研究社主编微信(微信号:sikuaiwanshi),添加微信请主动备注。】

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

深度学习下的人脸识别技术:从“后真相”到“无隐私”


以上就是本文的全部内容,希望本文的内容对大家的学习或者工作能带来一定的帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

The Filter Bubble

The Filter Bubble

Eli Pariser / Penguin Press / 2011-5-12 / GBP 16.45

In December 2009, Google began customizing its search results for each user. Instead of giving you the most broadly popular result, Google now tries to predict what you are most likely to click on. Ac......一起来看看 《The Filter Bubble》 这本书的介绍吧!

JS 压缩/解压工具
JS 压缩/解压工具

在线压缩/解压 JS 代码

图片转BASE64编码
图片转BASE64编码

在线图片转Base64编码工具

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具