新闻中心

微信语音克隆曝光后,竟然还有AI诈骗

2018-12-13

    

假头像、假朋友圈,加上假声音……前段时间微信语音克隆事件被爆出后,一度让微信用户的不安全感降至极点。骗子们通过盗取微信号,将聊天记录中“是的”、“可以”、“没错”等常见的历史语音搜集后换个时间转发,冒充受害人好友以借钱为由实施诈骗,不少防备心低的同学纷纷中招。

 

事件发生后,百家号、知乎等媒体上网友纷纷出招,大多数认为:“遇到借钱一定要打电话确认。”。但是电话听到的也不一定就是真的!现在的语音合成技术已经完全可以将任何声音模仿的惟妙惟肖,甚至包括情绪。2016 年,谷歌在加拿大蒙特利尔大学建立人工智能实验室(MILA)开发了声音合成技术,MILA 在 2017 年 4 月份成立了 Lyrebird 公司。所需要的合成素材只是几段语音,在Lyrebird 公司官网上你可以将自己的声音变成任何人。对于准备充分的骗子来说,几段语音并不难。


微信截图_20181212171644.png


大家可能会想到:“打电话确定不了真人,可以视频通话喽。”看脸的时代不是没有道理,但是脸不一定是真的,这里指的绝对不是整形、化妆。


不止声音可以伪造,现在连脸都可以通过 AI 来进行伪造了。网名为deepfakes 的程序员,他在业余时间用家里的电脑和开源的 AI 工具 fakeapp通过机器学习算法,成功移花接木,将神奇女侠女主角盖尔·加朵的脸移植到了一名演员身上。在今年的 4 月份,就有人利用 Fakeapp做出了一段假视频,在视频中美国前总统奥巴马对着镜头说出了一句令人震惊的话:“川普总统完全就是个笨蛋。」”

这些技术的初衷并不是为诈骗分子提供的,但任何技术都有可能被利用,张钹院士去年在《人工智能与信息安全》论坛上提到“有了人工智能技术以后,进攻方也产生各种各样的进攻手段,如何面对这样的挑战呢?唯一的办法就是借助于人工智能技术。”


回到诈骗的事件中,存在的根本漏洞并不是假语音假视频的存在,而是收钱的人的身份无法确认,所有账号都存在盗窃、丢失的风险,无法保证账号的使用者一直是本人。

 

得意音通的建议是:在进行转账交易的时候增加收款人身份认证手段,例如:收到红包后,需要声纹认证才能领取,或者转账到银行卡需要通过认证才能确认收款。这一方案与网友提到的“对暗号”类似,转账人可以通过语音转账,收款人通过声音确认收款,甚至可以一句话收款,即便捷又安全。

 

得意音通研发的声纹识别技术具备防止假体(模仿音、合成音、转换音)攻击、防录音闯入、防时变、抗噪音等性能,这几项性能要求已被写入央行颁布的《移动金融基于声纹识别的安全应用技术规范》中。

 


地址:北京市海淀区双清路77号院4号楼9层
邮编:100084
电话:+86-10-8289-3532
传真:+86-10-8289-6692

版权所有@北京得意音通技术有限责任公司 2002-2017. 京ICP备 05032314号 京公网安备