当“深度伪造”再进化,光靠意识防范已经不够了

深伪技术不断进化的当下,每个人都有可能成为受害者,任何人也都可以成为攻击者。

文|数科社

2024年是“超级大选年”,来自全球70多个国家和地区,都将在今年进行大选,参与选举的公民覆盖超过全球半数人口。

在AI技术爆发的当口,今年的选举竞争不仅比过去更加激烈,同时正面临着一个最主要的威胁——深度伪造(deepfakes)的扰乱。

据美国《华盛顿邮报》不久前报道,印度大选刚刚拉开帷幕之际,一位擅长运用AI拍摄宝莱坞电影和电视广告的从业者被数百名政客找上门,其中多半是让他帮忙伪造竞争对手出丑的音频或图片。

在各国日益激烈的政治竞争中,AI这把双刃剑成了不少政客手中的选举武器,一面靠它拉拢选民,一面用他刺倒对手。而自生成式AI技术井喷以来,深度伪造信息开始充斥着互联网的每一个角落,深受其害的并非只有政客,还有越来越多的普通人。

就在大约两年前,深度伪造这项技术尚只有熟练的黑客和专业人士才能使用。但现在,只需要一部手机或电脑,人人都能挥舞起这把利器。

当“深度伪造”再进化

“深度伪造(Deepfake)”一词由深度学习(Deep Learning)和伪造(fake)组合而来,是一种能够将人的面部表情和声音与另一个人的图像和声音结合起来,从而创造出虚假的视频或音频的人工智能技术。

2014年,由蒙特利尔大学提出的生成对抗网络(GAN)不仅提高了数据生成的逼真程度,也大大降低了深度合成的门槛。近十年,深伪技术日趋成熟,生成式AI横空出世后,扩散模型(Diffusion Model)训练路线的Deepfake数量不断增加,并逐渐从单一模态向跨模态或多模态演变。

对于深度伪造而言,处理录制的声音和图像从来不是什么新鲜事,但扩散模型的出现却使这项技术超越了将一张人脸贴到另一个身体上的范畴,而是允许它从头开始创建一个深度伪造品,无需编辑原始内容。

真正引发担忧的是,如今这项技术的门槛与成本已降低到任何一个会上网的普通人都可使用。英国政府网站称,近年来,“深度伪造”变得越来越普遍,全世界每个月的这类图像浏览量达数百万次。

深度伪造再进化的背后是虚假内容泛滥成灾,它被用于篡改选举、身份欺诈、诈骗、传播假新闻和诬陷造谣。

今年1月,美国流行乐歌星泰勒·斯威夫特的“AI伪造照片”在社交媒体上疯传,“惊动”美国白宫。除了名人之外,普通女性也成为了深度伪造色情图片的主要侵害群体。

据媒体报道,2023年9月,西班牙发生一起利用AI的深度伪造技术制作少女裸照的事件,至少有28名11岁至17岁的少女成为受害者,疑犯不仅将裸照在校园内及网络上传播,甚至还利用裸照进行勒索。

到目前为止,如果说深度伪造图片和视频,还能靠社交媒体力量和千万网友的甄别找出肉眼可见的纰漏,那么由AI驱动的颗粒状剪辑而出的音频则是深度伪造内容中最潜在的威胁。

上个月,美国马里兰州一所高中,该校一名校长因伪造的录音而被诬陷为种族主义者。法庭记录显示,这段录音经过外部专家进行分析,其中一人表示,录音中“包含事后经过人工编辑的人工智能生成内容的痕迹”。

人的视觉与听觉之间的脱节,往往会造成听到的比看到的更容易被蒙骗。深度伪造音频的欺骗力,相信不少网友在近两年比较火的“AI孙燕姿”音频内容上已有体会。

深伪技术不断进化的当下,每个人都有可能成为受害者,任何人也都可以成为攻击者。

以AI对抗AI

当深度伪造随AI技术的更迭实现再进化,人们光靠意识、道德防范已经不够了。

今年年初,香港一家跨国公司经历了一场损失惨重的“变脸”诈骗,损失高达2亿港元。据相关报道称,诈骗者通过公司的YouTube视频和从其他公开渠道获取的媒体资料,利用深度伪造技术伪造了英国公司高层管理人员的形象和声音,并制作出多人参与视频会议的伪冒视频,实则会议内只有参加的职员一人为“真人”。

过去两年里,被深伪技术加持的视频、电话诈骗案例不断上演,如何防御深度伪造内容的攻击,已成为全球网络安全专家和互联网科技企业亟待攻克的重要课题。

中国信通院人工智能研究中心安全与元宇宙部主任石霖指出,随着深度学习算法不断优化和创新,Deepfake带来的安全风险和隐私侵犯问题愈加严峻,且生成的内容越来越难以区分真伪,业界和学术界需要多管齐下,不断提高“以AI对抗AI”的能力。

伪造视频的检测过程涉及多个关键技术环节。如深度伪造视频在细节处理上往往难以达到完美,例如光照、阴影或面部动作的连贯性等方面可能存在不一致性。因此,异常检测算法就在此发挥了重要作用。

早在2021年,中国信通院就倡议发起了立“可信人脸识别守护计划”,旨在通过标准制定、测试评估、行业自律等手段,防范人脸识别技术带来的风险。近年来,百度、阿里、腾讯、字节跳动以及科大讯飞等AI头部企业,也在通过开发先进的AI算法和工具,积极提升对深度伪造内容的识别能力。

如蚂蚁数科上个月刚发布了Deepfake身份防御产品“ZOLOZ Deeper”,主要通过全链路安全技术,帮助用户规避在刷脸认证场景中的“AI 换脸”风险。

蚂蚁集团在金融业务场景无疑有着深厚的用户基数和实战攻防经验积累,据 ZOLOZ产品总监陶冶介绍,团队在2017年开始拓展海外业务,短短两年服务了十多个国家。

她表示,2023年AIGC爆发,深度伪造技术迎来全方位升级,不只是在人脸进行伪造,就连伪造生成的证件也越发逼真。譬如一张照片把它通过另外一个人的视频,变成可以微笑,可以进行眨眼的模式叫做活化,还可以编辑它的表情,把人变老、化妆、换发型等,显然能够给身份认证过程中增加一定的难度。

想要知道如何防守,先要了解对方如何攻击。在蚂蚁天玑实验室,会有大量模拟人以及机械的方式去做自动化攻击测评。通过GAN模型生成超测试样本,交给ZOLOZ Deeper进行判别训练,每个月进行超过20000次的攻防测评,模拟上百种伪造攻击情况。

“Deepfake攻和防是一个相对且不断精进的过程,你在进步,Deepfake也在进步,我们要做的就是跑在它的前面。” 陶冶说道。

一场持久战

在AIGC时代,与深度伪造技术的攻防已经演变成一场需要各方参与的持久战,想要保证比黑产、黑客早半步,并不是一件易事。

石霖用“发现的都没发生,发生的都没发现”这句话来概括这场攻防战的走向。在他看来,攻防是一个很大的命题,安全防护等级提高的同时,黑产也在尝试升级各种攻击方式,“一些成功的攻击手段可能大家都没检测出来,没有成功的可能都被防住了。”

企业近年来通过建立奖金池和生态响应中心,以吸引更顶尖的白帽黑客帮助发现平台漏洞,进而强化自身防护能力。如ZOLO此次设立了超百万的奖金池,支持安全极客来挖掘 ZOLOZ Deeper的漏洞。

从国家和政府层面而言,相关法律法规的出台与有效监管,也是防范AI滥用的关键。

2022年12月,《互联网信息服务深度合成管理规定》发布,对人脸生成、替换、操控,合成人声、仿声等都有明确约束。去年,国家网信办、国家发展改革委、教育部等七部门联合发布《生成式人工智能服务管理暂行办法》,进一步明确了生成式人工智能的行业发展规范。

从技术发展潮流的角度出发,人工智能行业不可能完全摒弃深度伪造这项技术,但作为公众可以采取一些措施来避免或减少被攻击的可能。

深度伪造技术虽已发展至真假难辨,但如果没有数据投喂训练,是不可能凭空制作出一张真人的人脸或是声音的。因此,在提高防诈骗意识之前,我们可以先提高防止个人隐私泄露的意识,如将社交资料设为私密,减少或者杜绝在社交媒体上分享账户、家庭家人、交通出行、工作岗位等敏感信息等。

其次,不管是个人用户还是涉及到收集大量用户隐私信息的企业,都应严守科技与道德伦理底线。

欧盟主要通过个人信息保护和虚假信息治理等法律法规来从法律层面限制人工智能造假技术的应用。如谷歌、Meta等在欧盟拥有巨量用户的大型科技公司,采取措施来打击其平台上的深度伪造和虚假账户,否则将面临高达其全球营业额6%的罚款。

国内像短视频社交巨头抖音去年发布了《关于人工智能生成内容的平台规范暨行业倡议》,明确平台不鼓励利用AI生成虚拟人物进行低质创作,将严格处罚违规使用AI生成虚拟人物发布违背科学常识、弄虚作假、造谣传谣的内容。今年3月以来,打击违规内容的力度进一步加大。

眼下,无论是对于AIGC的运用,还是与深度伪造技术的攻防,人类都还有很长的路要走。

声明:本文内容仅代表该投稿文章作者观点,不代表蓝鲸号立场。 未经授权不得随意转载,蓝鲸号保留追究相应责任的权利