时事分析 | 创新及科技发展 | 2018-12-31 | 《星岛日报》

新年新趋势:难分真与假 影片多险诈



俗语有云「有片有真相」,但来到新一年,大家见到影片或要开始习惯怀疑当中是否真相。这并非杞人忧天,科技进步下,已有技术可在一般电脑做出难分真假、被称为deep fake(「深伪」)的假影片。这类「假得很真」的影片之出现和普及,会为社会、政局带来怎样的影响,又有没有方法减少其伤害呢?

从色情到政情 假影片兴风作浪

追塑深伪之崛起,与色情影片有关。一名网名「deepfakes」的用户在外国论坛Reddit发布了一系列色情影片,而影片主角似乎是一些著名影星,包括电影《神奇女侠》女主角姬儿加杜(Gal Gadot)。片段骤看难分真假,但其实是有人以成人影片为原材料,透过人工智能程式将影星的脸部移花接木到演出者身体上[1],犹如拍电影时的「替身」。

根据媒体对「deepfakes」的访问,他透过Google、库存照片以及YouTube等渠道,获取名人容貌照片,然后透过深度学习(deep learning)机器学习技术,以色情影片及姬儿加杜的容貌照作教材「训练」演算法。[2]经足够「训练」后,演算法成为改片高手,可制作假可乱真的影片。[3]

这些影片以及所涉技术在2017年年底开始备受关注,往后固然有人将技术继续用于色情用途,制作更多不同影星「演出」的成人片段[4],但也有人将技术用于推动公共议题。

在2018年5月,网上出现一段美国总统特朗普称自己有勇气退出《巴黎协定》,认为比利时人民也应跟随其做法的影片。片段惹来数以百计留言,不少人怒斥特朗普竟敢就比利时的气候变化政策指手划脚。然而,片段其实是当地一个政党雇用他人制作的深伪,原意是吸引人们关注,希望比利时政府加紧力度应对气候变化。政党原以为片段假得很,不会被人当真,当发现「玩出事」后,该政党要向网民澄清影片是开玩笑,特朗普其实并没真的这样说。[5]

上述事件可能令特朗普更招人厌,也可能激发人们对气候变化议题关注,但不难想象,深伪在公共或政治领域的潜在影响可以十分严重。例如有论者提出,可能有人以深伪加深社会撕裂甚至制造混乱,假造有警员枪伤手无寸铁市民,又或者社群领袖呼吁要对警察施暴的影像。[6]有人也可能以假影片诬蔑官员或从政者,如「显示」他们受贿、有婚外情或者到过某些场合、曾说或做出一些可怕事情。[7]

当然,被陷害者可想办法澄清,但有些时候,可能根本没有时间让被陷害者作出反应。举例,在选举投票前夕,假如有不利候选人的深伪流出,候选人可能还未赶得及作出有效澄清,受影响的选民已投下一票。[8]

深度学习 其实唔难?

假影片并非今时今日才出现,深伪及其关连技术的威力,首先于其仿真能力的先进。除了上述提及的「深度学习」技术外,人们还可以透过繁衍性对抗型网络技术(Generative Adversarial Networks),加强深伪的仿真度。简单而言,这种技术是采用两个电脑「神经网络」,一个负责「制作」,参照现有的资料、数据负责制作出类同的仿制品,另一个网络则专职「评审」,衡量「制作」网络的仿制品的像真程度。制作网络就根据「评审」结果,改善能力,然后透过周而复始的制作及评审,将仿真能力不断提高。[9]随这项技术愈见精湛、有更多的图片可以用作「训练」演算法,深伪的说服力便可能愈强,愈难以被「踢爆」。[10]

当然,论仿真能力,深伪难言是一枝独秀,我们从电影中也可能曾领教过电脑特技的威力,例如《星际大战外传:侠盗一号》就以电脑技术令已离世演员Peter Cushing在影片演出。[11]不过这些技术可能需要大量资金、人才、设备,令到只有少数人或机构如电影公司才可运用。

然而,深伪技术却可以相当「入屋」,在家中制作。在硬件方面,有人工智能研究员认为,「deepfakes」所用的人工智能技术,用一张较佳的显示卡作相关运算,所需时间可以以小时计,即使是用中央处理器运算,也同样可行,只是需时较久。[12]在软件方面,也有人提供了如FakeApp这类软件,让人们只要能上网,都可以用别人的照片制作深伪。[13]当然,要做出令人难辨真假的深伪,可能还是需要具备一定的专业经验。[14]

不过,科技持续在进步,加上透过「资讯战」左右选举似乎渐成常态,这些因素都预示深伪会出现得愈来愈多,更有学者认为深伪盛行,可能动摇民主制度根基。美国德克萨斯州大学奥斯汀分校的法律系教授Bobby Chesney和马里兰大学法律系教授Danielle Citron在2018年年中发表文章,探讨深伪对私隐、民主及国家安全的影响时[15],便提及深伪可以被用于诬蔑官员及政客、左右选举结果,以及进一步撕裂社会[16],还认为当深伪泛滥,人们可能会变得疑神疑鬼,觉得有图未必有真相,导致维系民主制度有效运作的「信任」受到蚕食。两位学者认为,「真相」加上「信任」消退,会为威权政治创造更大空间,因为当何谓真相不再是按客观准则,而是按意见而定,那么权力就会流向最能突显自己意见的一方,意味掌权者的力量更盛。[17]

造假与打假陷入「军备竞赛」 社会注定是输家?

姑勿论深伪会否损害民主制度,但不难想象其对选举及社会和谐的潜在破坏力。如何减少深伪的坏影响,也因此值得社会关注。其中一个途径是以科技打科技,借助科技之力,帮助人们判断什么是真,什么是深伪。

美国国防高等研究计划署两年多前已经展开一项五年研究计划,研发可以自动侦测被修改的图像影像,并识别其怎样被修改等的技术。[18]虽然计划开始时没有预想要对付深伪[19],但随计划开始关注深伪,研究人员陆续找出一些侦测深伪的关键,包括发觉深伪内的脸孔,很少会眨眼,而即使眨眼,动作也显得不自然[20],原因是用于「训练」深伪程式的材料是静态图片,而这些图片通常是显示一个人眼睛张开的状态。[21]

然而,道高一尺,魔高一丈。相关研究人员指,造假高手只要收集一个人在眨眼的图片,即可令上述探测之法被废,但同时又指他们团队已研发一个更有效方法,但暂时要先保密,希望保持对造假者的优势。[22]

不过即使打假者最终获胜,发展出可以完美侦测深伪的技术及工具,能否广泛应用,又是另一回事。这可能取决于资讯发布平台(例如YouTube、Facebook等)会否以其筛查内容,甚至规定任何资讯发布前,都需先经相关技术及工具验证。[23]然而有意见认为,网络平台过往对于涉及管制假资讯的举动显得犹豫,近年才变为较积极出击打假[24],若然其面对深伪威胁仍反应缓慢,侦测工具及技术可能还要在面世后一段时间才能获得普遍应用。

另一个回应深伪的方向,是以真相对抗假象。Chesney及Citron两位学者就预测,若然深伪横行,可能会有人看见商机,提供难以修改的生命历程记录服务[25],在必要时候提出「不在场证明」。

两位学者认为,包括可穿戴技术、加密、远程感应、区块链记录等技术的发展推进,可令这种服务成真。[26]当然,这类服务即使技术上可行,但相关代价涉及大量私隐,因为个人活动、所到之处,以至亲身或电子通讯等,都可能因此而被追踪、记录[27],有多少人愿意付出这个高昂代价,是未知之数。不过如果是从政者、明星这类很需要保持清誉的人,或愿意承受代价。

然而,即使打假者成功令公众观看影片时「停一停」,「谂一谂」影片是否反映现实,但作恶者也可反过来借用这种防伪意识,诬陷真实的影音内容是「深伪」,迷惑公众。[28]Chesney及Citron两位学者甚至提出「说谎者红利」(liar’s dividend)一说,即有关深伪之危险的公众教育办得愈成功,说谎者就愈能因为人们愈益怀疑「真相」而获益。[29]

在这资讯唾手可得的年代,要寻找资讯帮助自己分析并作出决定,看似容易。然而,充斥在我们面前的资讯,有多少可信,有时实在难以说准。当深伪技术日益成熟,「真的假不了,假的真不了」,正面临前所未有的考验。

1 Samantha Cole, "AI-Assisted Fake Porn Is Here and We're All Fucked," Motherboard, https://motherboard.vice.com/en_us/article/gydydm/gal-gadot-fake-ai-porn, last modified December 12, 2017.
2 同1。
3 同1。
4 Alex Hern "AI used to face-swap Hollywood stars into pornography films," The Guardian, January 25, 2018, https://www.theguardian.com/technology/2018/jan/25/ai-face-swap-pornography-emma-watson-scarlett-johansson-taylor-swift-daisy-ridley-sophie-turner-maisie-williams.
5 Oscar Schwartz, "You thought fake news was bad? Deep fakes are where truth goes to die," The Guardian, November 12, 2018, https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth.
6 Bobby Chesney and Danielle Citron, "Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security," Social Science Research Network, August 23, 2018, p. 24.
7 同6,第20页。
8 同6,第22页。
9 Bobby Chesney and Danielle Citron, "Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security," Social Science Research Network, August 23, 2018, p. 6; 黄永,〈用AI造假新闻:Deepfakes〉,《信报》,2018年11月21日,A18页。
10 Bobby Chesney and Danielle Citron, "Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security," Social Science Research Network, August 23, 2018, p. 6; 黄永,〈用AI造假新闻:Deepfakes〉,《信报》,2018年11月21日,A18页;Patrick Houston, "AI-Generated 'Deep Fakes': Why it's the Next Front in Election Security," Symantec Blogs, https://www.symantec.com/blogs/election-security/ai-generated-deep-fakes-why-its-next-front-election-security, last modified October 31, 2018.
11  Dade Hayes, "'Star Wars' Effects Team Talks 'Rogue One' And Reanimating Dead Actors," Forbes, April 27, 2017, https://www.forbes.com/sites/dadehayes/2017/04/27/star-wars-effects-team-talks-rogue-one-and-reanimating-dead-actors/#5cb368a538f7.
12 同1。
13 Oscar Schwartz, "You thought fake news was bad? Deep fakes are where truth goes to die," The Guardian, November 12, 2018, https://www.theguardian.com/technology/2018/nov/12/deep-fakes-fake-news-truth; Bobby Chesney and Danielle Citron, "Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security," Social Science Research Network, August 23, 2018, p. 9.
14 同6,第9页。
15 同6。
16 同6,第20至24页。
17 同6,第28至29页。
18 Dr. Matt Turek, "Media Forensics (MediFor)," Defense Advanced Research Projects Agency, https://www.darpa.mil/program/media-forensics, accessed November 28, 2018; Steven Melendez, "Can New Forensic Tech Win War On AI-Generated Fake Images?" Fast Company, https://www.fastcompany.com/40551971/can-new-forensic-tech-win-war-on-ai-generated-fake-images, last modified April 4, 2018.
19 Will Knight, "The Defense Department has produced the first tools for catching deepfakes," MIT Technology Review, https://www.technologyreview.com/s/611726/the-defense-department-has-produced-the-first-tools-for-catching-deepfakes, last modified August 7, 2018; Steven Melendez, "Can New Forensic Tech Win War On AI-Generated Fake Images?" Fast Company, https://www.fastcompany.com/40551971/can-new-forensic-tech-win-war-on-ai-generated-fake-images, last modified April 4, 2018.
20 Will Knight, "The Defense Department has produced the first tools for catching deepfakes," MIT Technology Review, https://www.technologyreview.com/s/611726/the-defense-department-has-produced-the-first-tools-for-catching-deepfakes, last modified August 7, 2018.
21 同20。
22 同20。
23 Bobby Chesney and Danielle Citron, "Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security," Social Science Research Network, August 23, 2018, p. 30; Digital and Cyberspace Policy Program, "Disinformation on Steroids: The Threat of Deep Fakes," Council on Foreign Relations, https://www.cfr.org/report/deep-fake-disinformation-steroids, last modified October 16, 2018.
24 Alyssa Newcomb, "Tech companies struggle with the human side of fake news," NBC News, https://www.nbcnews.com/tech/social-media/tech-companies-struggle-human-side-fake-news-n857426, last modified March 17, 2018.
25 同6,第53、54及56页。
26 同6,第54页。
27 同6,第54页。
28 同6,第4及28页。
29 同6,第28页。