公告:为给大家更好的使用体验,同城网今日将系统升级,页面可能会出现不稳定状态,由此给您带来的不便,敬请谅解!
升级时间:2016-7-24 11:00 -- 2016-7-24 15:00

澳洲同城网

查看: 3219|回复: 0
打印 上一主题 下一主题

3秒音频就能克隆你的声音!AI语音诈骗兴起,银行呼吁储户当心

[复制链接]

31万

主题

19

金豆

25万

积分

网站编辑

Rank: 8Rank: 8

性别
保密
积分
256690
金豆
19
鲜花
0
主题
319363
帖子
319364
注册时间
2019-12-26
跳转到指定楼层
楼主
发表于 2024-9-21 21:00:05 | 只看该作者 回帖奖励 |倒序浏览 |阅读模式 来自: INNA

马上注册,结交更多同城好友,享用更多功能!

您需要 登录 才可以下载或查看,没有帐号?立即注册

x

一家大型银行警告称,诈骗犯只需三秒钟的音频,就可能窃取你账户里的储蓄。




英国银行Starling Bank周三表示,该行上个月与Mortar Research联合进行的一项调查显示,超过四分之一的受访者曾在过去12个月中,成为AI语音克隆骗局的目标。

调查还显示,46%的受访者不知道存在此类骗局,8%的受访者表示会按照朋友或家人的要求汇出尽可能多的钱,即使他们认为通话里的声音很奇怪。




(图片来源:网络)

Starling Bank首席信息安全官Lisa Grahame表示:“人们经常在网上发布包含他们声音录音的内容,却从未想过这会让他们更容易受到欺诈者的攻击。”

该银行鼓励人们与亲人设置一个“安全短语”——一个简单、随机、容易记住且与其他密码不同的短语——可用于通过电话验证身份。

贷款人建议不要通过短信分享安全短语,因为这可能会让骗子更容易找到。

如果以这种方式分享,则应在对方看到后立即删除该消息。

随着人工智能越来越擅长模仿人类的声音,人们越来越担心它可能会伤害人们,例如帮助犯罪分子访问他们的银行账户并传播错误信息。

今年早些时候,生成式人工智能聊天机器人ChatGPT的制造商OpenAI推出了其语音复制工具Voice Engine,但当时并未向公众开放,理由是“合成语音有可能遭到滥用”。

window._taboola = window._taboola || []; _taboola.push({ mode: 'thumbnails-mob-1x1', container: 'taboola-mobile-below-article-thumbnails', placement: 'Mobile below article thumbnails', target_type: 'mix' });
免责声明
澳洲同城网是一个免费的公共信息平台,网站内容由网友自由发布,发布者拥有所发布信息的版权同时承担相应责任; 若所发布信息侵犯了您的权利,请反馈给澳洲同城网,我们核实后将进行相应处理!
官方微信公众号
澳洲同城网官方公众号
微信上也能找工作,找房子?关注万能的同城网官方公众号 localsyd,找到你找不到!
回复

使用道具 举报

高级模式
B Color Image Link Quote Code Smilies |上传

本版积分规则




外汇平台
金牌家政
汽车网



















wuliu
你想了解我们吗?
联系我们
关注我们
官方微博 官方Facebook 官方Twitter
微信关注
官方微信公众号 官方微信服务号
官方公众号 客服微信
快速回复 返回顶部 返回列表