大数据文摘出品
来源:The Wall Street Journal
编译:林苗、易琬玉
人们一般都认为狗是自己最好的朋友。然而,当要分辨一段录音的真假时,小老鼠才是我们的好帮手。
本周,美国网络安全会议Black Hat在拉斯维加斯举行。会上,研究人员提出,小动物们,特别是小老鼠,在识别自然语音元素方面很有天分。
这项成果可能会影响技术公司通过人工智能来构建系统,去检测电脑合成的声音。
“Deepfake”的发展令人担忧
“小哥哥网恋吗?我萝莉音。”
在一大波变声器和修音软件的风潮下,变声萝莉音、御姐音、正太音几乎只需要手动调调软件参数。对于游戏直男来说,游戏连麦时听到萌萌妹子音,想要点开个人主页勾搭却发现是个抠脚大汉的概率不低。
变声这件事情,本身就带有娱乐性。斗鱼大热的游戏主播Zard有一个关键时期,就是他开着变声器变身萌妹聊天,软萌又调皮的人设吸粉无数。
然而,玩乐归玩乐。随着”深度伪造”的发展,伪造的你的声音可能亲妈也听不出端倪,一旦被犯罪分子利用便会造成大问题。
对声音的伪造从1999年就开始了,从Microsoft Mike 到谷歌的Tacotron 2,每一次发展迭代都变得更加像人。
因为”Deepfake”的出现,我们再也不能相信“眼见为实”。
近来,专家们非常担心”Deepfake”类产品的发展速度。通过”Deepfake”应用,计算机可以对数百份照片或录音进行采样合成,伪造一些人们没有说过的录音或是照片。
前段时间,美国众议院议长Nancy Pelosi的一段深度伪造的谈话视频出现在社交媒体上,这段视频经由特朗普总统分享,在Facebook上获得了超过250万次的浏览量。早些的时候,美国前总统奥巴马的脸被“借用”来攻击特朗普总统,该视频在网站上也获得480万的浏览量。
特朗普总统本人也难逃一劫,西雅图电视网曾播放过一段深度伪造的特朗普演讲视频,视频中特朗普总统满脸通红,还不时做一些滑稽的表情。
视频地址:https://www.youtube.com/watch?v=jzKlTKsHeus
由于深度伪造技术可以运用在包括总统在内的任何官员身上,美国两党开始担心该技术将成为针对美国和其他西方国家发起虚假信息战争的最新武器;不法分子很可能会利用这项技术,模仿高层管理人员或某位候选人的言行,再对他们进行网络攻击,从而影响各级选举。
利用人类思维制造“假声”
人类在语言加工处理过程中,总是倾向于用标准化的思维来表述,并对语音进行压缩。新型的”Deepfake”机器学习技术正是利用了这一规律,用听起来非常像人说话,实际上来源不一的声音来鱼目混珠。
“在一个关键的时机,假冒某位CEO或某位政治家说一些或者做一些他们并没有说过、做过的事,可能会引发某种程度上的灾难,比如破坏全球金融市场的秩序,或者引发民事或军事上的冲突。”GSI科技公司数据科学主管、小老鼠研究项目成员之一,George Williams如是说。
这个项目的其他研究人员包括金融信息公司Bloomberg LP的数据科学家Alex Comerford,以及俄勒冈大学的研究生Jonathan Saunders。
Jonathan Saunders认为,“如果你想进一步优化、形成通用版本的’Deepfake’检测算法,那就需要深入语音学和神经科学来了解声音听起来是什么样的,以及大脑是如何分析和处理声音的”。
小鼠具有与人类相似的听觉系统
研究人员们训练小老鼠来区分不同的音素,比如与爆破音P、B、T相关的声音。英语中的48个音素,经常被用于模拟语音方面的研究,也产生了一些比较有挑战性的研究成果。早期在”Deepfake”方面的尝试,听起来都很像机器人。
在识别复杂声音的能力方面,小老鼠具有与人类相似的听觉系统。因此,研究人员假设,可以利用小老鼠在合成声音的数据集上进行测试,以区分哪些声音是真实的。
研究人员利用条件反射对小老鼠进行训练强化——听到真实的音频片段时,跑向某个位置;听到合成的音频片段时,则跑向另一个位置。如果跑对了,会得到奖励。久而久之,小鼠就学会了如何区分真假两种声音。
在测试中,小老鼠检测到合成声音的正确率为75%。如果研究人员在实验中添加一些意外的变量,比如新的声音或元音,小老鼠的正确率会随之下降。然而,小老鼠们还是能够在训练数据中,把新的、复杂的语音模式区分出来。
一些研究团队都在利用人工智能对抗”Deepfake”。然而,数据算法一般都是在训练集数据范围内运行的,这也就意味着它们非常容易受到新技术或者超范围数据的冲击。本文介绍的团队用小老鼠进行训练,却可以适应这种新的变化。
Jonathan Saunders表示,“目前在听觉研究领域,小老鼠们还是一张白纸。他们能学习复杂的特征集,可能也可以学习新的分类问题。”
当然,这并不意味着Youtube需要通过喂养大堆小鼠来识别深度伪造的视频。但是通过弄明白小鼠是如何具有这样的识别能力,可以让我们更好的训练计算机,进而能够更好地对抗”Deepfake”。
我们曾如何对抗”Deepfake”
在对抗”Deepfake”这件事上,很多科技公司都进行过努力。
比如DARPA花费数年的MediFor计划,汇集世界顶尖的研究人员开发自动评估图像或视频完整性的技术,并将这些技术集成到端到端。MediFor平台将自动检测并分析媒体上的伪造,并推断视觉媒体的完整性,以便于确定可疑图像或视频。然而根据项目参与人员Farid的说法,这个项目目前依旧需要大量的人工分析和筛选。
阿姆斯特丹的Deeptrace就是通过深度学习大量虚假视频,来喂养、打磨一个深度伪造识别系统。它不仅能够识别视频是否是伪造的,还能揭露伪造视频的制作过程。通过追踪算法的痕迹,Deeptrace能够得到了解生成伪造的算法信息。例如,知道整个视频只是伪造了面部信息还是伪造了整体。
当人们发现一些寻常的东西(比如一通电话或者是一段视频)可以被轻易伪造时,就像打开了潘多拉的魔盒。我们现在还没能找到完美对抗”Deepfake”的解决方案。小鼠在听觉方面的天赋或许能帮我们前进一步,然而对抗深度伪造,依旧任重道远。
相关报道:
https://www.wsj.com/articles/to-combat-deepfakes-researchers-turn-to-mice-11565256600
本文为专栏文章,来自:大数据文摘,内容观点不代表本站立场,如若转载请联系专栏作者,本文链接:https://www.afenxi.com/73671.html 。