今日头条
成为助长犯罪工具 AI换脸技术引发多重隐忧
【热点话你知】 —— 精选话题打开眼界,国内外大事趣闻轻松了解
AI“换脸”你玩过吗?
图像处理和人工智能技术的发展超乎你想象,不少“换脸”应用程序因此走红网络。只要动动手指,就可以将自己的脸替换成明星或是朋友的脸。然而,AI“换脸”给人们带来欢乐的同时,也造成了隐患。近期,更有不少“换脸”事件,引发大家的关注。
广告
中国网红长期“P图恶搞”林俊杰
今年九月,新加坡歌手林俊杰(JJ)传出向中国影音平台BiliBili的一名网红Up主“瓜瓜Mars”提告。因为对方长期以“换脸”方式恶搞林俊杰,不仅制作许多嘲讽影片,还在JJ生日时将他的脸P到多位女性身上揶揄,因此林俊杰以“侵犯肖像权”罪名,控告对方及对方公司,并且求偿经济损失25万、精神损害慰问金2万,加上维权成本5000元,总共27.5万人民币(约18万令吉)。
然而,这名因为贪玩而吃上官司的网红,却毫无悔意,直言自己恶搞林俊杰的影片“做得好”,甚至在得知自己遭到林俊杰控告后,还在BiliBili发文“无语了”。

台湾网红制造“换脸”性爱片
逾百位艺人和网红受害
此外,台湾一名YouTuber“小玉”(朱玉宸)近日也因为涉嫌透过换脸技术,制作性爱片牟利,而占据了各大台湾新闻版面,最后遭到警方逮捕归案。
根据报导,小玉透过Deepfake换脸技术,将多名艺人以及网红的脸,合成到成人片女优身上,再制作成性爱片贩售。许多人为了能收看明星艺人的“性爱影片”,不惜支付数百元台币的会费给小玉,加入他经营的私密聊天群组,在线上浏览完整的色情片。
事件曝光之后,有网民整理出了逾百位受害者的名单,除了一些台湾网红之外,不少艺人明星包括蔡依林、陈芳语、邓紫棋、新垣结衣、郑家纯(鸡排妹)、林明祯、李元玲等人,也难逃小玉的魔掌。

其实近年来,Deepfake“换脸”技术已不是新闻,早在这几起案件爆发之前,就已经在全球遭到不少人用来进行金融犯罪、传播假新闻,和破坏他国选举。
对此,《热点Hotspot》为大家梳理了有关Deepfake必须知道的“四件事”,别以为事不关己,因为分分钟,你或你身边的人,可能是Deepfake技术下的“下一个受害者”。

1)Deepfake是怎么生成的?
互联网上曾经有句调侃的话,“众所周知,照片能P,但视频是不能P的,所以视频是真的”。
在技术还没成熟的时候,要恶搞视频,替换视频中人物的头像,只能以大头贴直接贴上去的粗暴方式,可谓假到一眼就能看出来。
直到2017年底,一种人工智能基础的人物图像合成技术Deepfake问世。它依赖一种称为人工神经网络的系统,只要将数十万张图像,输入人工神经网络,就能“训练”它们识别并重建人们的面部样态。由于操作上简易明了,很快就让网友们玩得不亦乐乎。
更可怕的是,Deepfake具有深度学习的功能,借助公共数据库,建模不断完善,视频中的人物表情越来越逼真,越来越难以辨别。
到底Deepfake有多逼真?先来看看以下韩国女团Twice成员周子瑜被“换脸”的韩剧片段便可知。要知道,周子瑜并未出演这部片,但现在的技术已可做到各种动态、表情的全方位模拟。
不出意料,Deepfake技术很快朝着人性的阴暗面一路狂奔。问世不到3个月,Deepfake版块便被关闭,众多网友自发抵制。可是,潘多拉的魔盒已经被打开,这项技术也已经不可遏制地流传开来。
2)Deepfake成为助长犯罪的工具?
第一起利用 Deepfake 技术的诈骗案
2019 年 9 月,发生第一起利用 Deepfake 技术诈骗的案件。
不法分子使用 Deepfake 技术,制作一段语音来诱骗英国某高阶经理将 243,000 美元汇到某个歹徒所开设的帐户。根据受害企业的保险公司表示,歹徒在电话中假冒的声音,不仅能模彷被冒充者的声音,还能模彷其说话的语调、断句及腔调。
“换脸”色情影片肆无忌惮
当 Deepfake 在 2017 年首次流行起来时,它们绝大多数被用于在互联网论坛上,制成名人的假色情作品。在 2019 年,根据Deepfake检测公司Sensity的数据显示,96% 公开发布的 Deepfake 都是色情内容,包括电影《神奇女侠》主演盖尔·加朵(Gal Gadot)在内的众多女明星的脸,也出现在各类色情视频中,几乎可以做到以假乱真。

影响政治以达到邪恶目的?
尽管还没有因为 Deepfake 而引发战争,但是已经有一些关于 Deepfake 被用来攻击政治对手的例子。美国前总统特朗普早前宣布退出应对气候变化的《巴黎协定》后,被比利时某政党利用Deepfake技术篡改相关视频,发布了一段名为“特朗普宣称比利时政府也应当退出”的虚假视频,借机引发比利时民众的愤怒。
Trump heeft een boodschap voor alle Belgen... #Klimaatpetitie pic.twitter.com/Kf7nIaDOKj— Vooruit (@vooruit_nu) May 20, 2018
尽管这个 Deepfake 的质量很差,而且通过看特朗普的口型,就能轻易认出视频是伪造的,但还是有不少人被欺骗了,纷纷为视频中的言论大声谴责特朗普。
犯罪分子以人脸识别技术虚开发票超5亿
今年9月24日,中国上海市虹口区人民检察院也对外通报了一起破解“人脸识别”技术典型案例。
根据有关犯罪组织中专门从事人脸识别破解成员的口供,他们一般先从其它地方以每个30元(大约马币20令吉)的价格,购买他人的高清头像和身份证信息,之后利用“活照片”等App对高清头像进行处理,让照片“动起来”,形成包括点头、摇头、眨眼、张嘴等动作视频,最后经过特殊技术处理后,破解相关政务平台,从而使虚开发票人员达到犯罪目的。
3)Deepfake为娱乐行业和政治带来更多可能性?
毋庸置疑,Deepfake技术就是一把“双刃剑”,除了上述的负面使用例子,正面用途其实也不少。
为娱乐行业带来创新应用
当涉及到娱乐行业时,Deepfake技术还是可以带来新的可能性。
一部讲述车臣男女同性恋者受迫害的《欢迎来到车臣》纪录片,就是以Deepfake技术来掩盖被采访者的身份。
为了保护片中的受访者,纪录片使用了换脸技术,导演大卫·弗朗斯在纽约招募到一批LGBT志愿者,使用最前卫的Deepfake换脸,让纽约志愿者全程充当了车臣受害者的“脸替”。


此外,迪士尼也曾经在《星际大战外传:侠盗一号》(Rogue One)中,用特殊换脸技术让已故演员彼得·库欣(Peter Cushing) 以及凯莉·费舍尔(Carrie Fisher)重返大萤幕。


为政治带来更多可能性
在政治用途方面,Deepfake 可以被用来让政客接触到更广泛的受众。一位印度政客 Manoj Tiwari 对他发布的一份声明进行了 DeepFake,将其翻译成其他语言,比如英语。
原版如下:
英文版本:
4)我的脸还“安全”吗?
换脸技术的出现和普及,让我们不由得思考一个问题:我们的脸还安全吗?
虽然一般市井小民,头像被盗用的机率比较低,但并不代表风险不存在。随着 Deepfake 的质量越来越高,人们该如何辨识真伪呢?
对此,Wired.com採访了白金汉大学数学与电脑教授Sabah Jassim及Spectre联合创办人Bill Posters,他们建议要注意以下事项:
辨识 Deepfake 假影片的四个方法:
- 眨眼率;Deepfake制作对象的眨眼率少于正常人
- 语音和嘴唇运动的同步状况
- 情绪不符合
- 模糊的痕迹、画面停顿或变色
- 停 (Stop):不要分享或是评论。
- 问 (Question):这个影片原始出处是哪裡?自我审核,影片中人的言行举止是否与平常不同?为什么这个人或组织要在线上分享此影片?
- 报 (Report) :在网路上看到任何可疑内容时,如果担心或坚信此为Deepfake,可向该新闻曝光的网站或应用程式平台举报,
此外,微软、纽约州立大学水牛城分校等单位还研发了反 Deepfake 的侦测工具,包括查看眼睛反射影像或是人眼不易察觉的脸部接缝处,来侦测影像是否遭合成修改。
为了加深公众对Deepfake的认识,微软设立Spot the Deepfake测试网站,并设有10条问题,让公众尝试分辨哪些属于Deepfake影片,亲身体验其彷真能力,不妨去挑战一下!
技术在不断成熟与发展,也在与我们的生活逐渐融合,但所有技术都是中性的,关键在于使用技术的人是否能够将它往“善”的一面引导。
你对于Deepfake有怎样的看法?欢迎到《热点Hotspot》面子书留言,和小编交流交流!
更多【热点话你知】文章请点这里,精选时事话题为你打开眼界。
必看影片