你好,游客 登录 注册 搜索
背景:
阅读新闻

人工智能和区块链能否用于对抗Deepfake?

[日期:2019-10-09] 来源:企业网D1Net  作者:Michael Baxter [字体: ]

Deepfake是一种能辅助视频剪辑的人工智能技术,这种剪辑可以几乎不费吹灰之力就能制作出相当逼真的效果。而如今的Deepfake越来越频繁地发布假新闻,那么解决它的方法是什么?可以使用人工智能和区块链对抗Deepfake吗?

 
大多数人都听说过网络钓鱼软件,很多人可能会收到公司总经理或首席执行官的一封电子邮件,要求转移或支付一些资金。出于企业管理者的要求,很多员工并不总是冷静进行思考和判断,很可能会遵守指令并因此蒙受损失。如今,越来越多的人意识到了这种危险,并且通常都会检查电子邮件的真实性。但是,如果工作人员接到管理者打来的电话,并且也是其熟悉的声音和节奏,那么产生可疑的可能性就大大降低。而现在,在Deepfake的一种变体软件中,可以逼真地模仿企业管理者的声音。那么对此如何应对?可以使用人工智能或区块链与Deepfake开展斗争吗?还是对员工进行更多的培训?三位行业专家为此分享了自己的观点。
 
根据《华盛顿邮报》的一篇报道,网络犯罪分子使用了人工智能软件来骗取了一家英国能源公司22万美元(19.4万英镑)的资金。该公司首席执行官接到了他认为是其母公司管理者的电话,并按他的要求转移了这笔巨款。
 
而Deepfake的另一个例子后果虽然不那么严重,但却有着更为严重的影响。一个名为Ctrl Shift的YouTube视频创作者采用Deepfake在AMC电视连续剧Better Call Saul中的一个场景中模拟美国总统唐纳德·特朗普和其女婿贾里德·库什纳的声音。
 
那么组织如何应对Deepfake的威胁?
 
Faculty公司数据科学家Alexander Adam博士表示,Deepfake采用人工智能技术处理音频要比视频难得多。
 
他解释说:“人耳对声波非常敏感,声波的频率范围非常广,因此产生人类语音要求人工智能算法处理大量声波。相比之下,人眼只能以每秒30帧左右的速度感知数据。这意味着Deepfake视频中的错误与音频相比并不明显。
 
为应对DeepFake应该培训员工
 
ESET公司网络安全专家Jake Moore表示企业需要将重点放在培训人员上。
 
他说:“在不久的将来,我们将看到机器学习的网络犯罪大量增加。我们已经看过Deepfake模仿名人和公众人物的视频,但是为了创建令人信服的材料,网络犯罪分子使用在公共领域提供的素材。随着计算能力的提高,我们发现创建视频和声频变得更加容易,人们将面临更加可怕的风险。
 
为了帮助减少这些风险,企业应该从提高认识和教育员工开始,然后引入第二层保护和验证,这是很难伪造的,例如采用一次性的密码生成器(OTP设备)。双因素身份验证是一种功能强大、成本低廉且简单的技术,它可以添加额外的安全层,以保护企业的资金不流入这些网络犯罪分子的帐户。
 
在人们了解它之前,Deepfake带来的威胁将更具说服力,因此企业需要考虑尽快投资检测Deepfake的软件。但是企业应该把重点放在培训员工上,而不是仅仅依靠软件。”
 
区块链对Deepfake的回应
 
普华永道公司的专家、技术领先者和解决方案架构师Kevin Gannon说:“当涉及到信息技术领域时,新兴的技术脱颖而出,并将提供一定程度的安全性、批准和验证。很多企业通常宣称区块链可以提高可见性和透明度,一旦做某事,可以了解是谁做的以及何时做的,当拥有数字身份的用户想要做某事时,可以提示他们提供身份证明,然后才可以授予某项(例如资金)访问权限。从另一个角度来看,可以通过区块链应用程序来证明视频、音频文件的实际真实性,在应用程序中可以将某些文件的散列(假设的证明)与原始文件进行比较。尽管这不是灵丹妙药,但与往常一样,以正确的方式采用和应用该技术是关键。从安全性的角度来看,更开放的数据机制(如公共分类帐)具有更大的攻击面,因此不能假定固有的保护。
 
但在批准过程中加强安全协议,其中智能合同也可以发挥作用,可以加强这样的过程。此外,在技术层面上,通过在进程中应用多SIG(多重签名)事务可以意味着即使一个身份被破坏,也可以提供多个身份来获得最终批准。”
 
人工智能和Deepfake
 
Alexander Adam博士对于如何使用人工智能对抗Deepfake进行了分析。他说,“机器学习算法非常适合识别大数据中的模式。机器学习可以通过使用分类技术来提供一种从真实音频中检测假音频的方法,其分类技术通过向算法显示大量的Deepfake和真实音频并教会区分两者之间的频率差异开展工作。例如,通过在音频频谱图上使用图像分类,可以教会机器学习模型‘发现差异’。但是现在还没有现成的解决方案。
 
其部分原因是,模拟音频的Deepfake并未像模拟视频Deepfake一样受到威胁。音频Deepfake并不完美,如果它是针对某人认识的特定人物量身定制的,那么应该能够分辨出两者之间的区别。也就是说,电话的干扰或外部背景噪声可能会掩盖这种情况。而且,由于媒体对Deepfake视频的关注度很高,因此人们可能不太了解音频Deepfake的潜在风险。
 
但是我们预计,在未来几年中,恶意音频Deepfake的创建和使用将会增加,并且会变得更加复杂。这是因为网络攻击者可能对机器学习模型有更好的了解,以及如何将在一个模型上使用的知识转移给另一个模型并快速进行训练。因此人们需要注意的是,随着Deepfake生成的内容变得越来越好,检测方法也需要随之进行改进。”
收藏 推荐 打印 | 录入:admin | 阅读:
本文评论   查看全部评论 (0)
表情: 表情 姓名: 字数
点评:
       
评论声明
  • 尊重网上道德,遵守中华人民共和国的各项有关法律法规
  • 承担一切因您的行为而直接或间接导致的民事或刑事法律责任
  • 本站管理人员有权保留或删除其管辖留言中的任意内容
  • 本站有权在网站内转载或引用您的评论
  • 参与本评论即表明您已经阅读并接受上述条款