澳洲同城网

标题: 3秒音频就能克隆你的声音!AI语音诈骗兴起,银行呼吁储户当心 [打印本页]

作者: 7News    时间: 2024-9-21 21:00
标题: 3秒音频就能克隆你的声音!AI语音诈骗兴起,银行呼吁储户当心

一家大型银行警告称,诈骗犯只需三秒钟的音频,就可能窃取你账户里的储蓄。




英国银行Starling Bank周三表示,该行上个月与Mortar Research联合进行的一项调查显示,超过四分之一的受访者曾在过去12个月中,成为AI语音克隆骗局的目标。

调查还显示,46%的受访者不知道存在此类骗局,8%的受访者表示会按照朋友或家人的要求汇出尽可能多的钱,即使他们认为通话里的声音很奇怪。




(图片来源:网络)

Starling Bank首席信息安全官Lisa Grahame表示:“人们经常在网上发布包含他们声音录音的内容,却从未想过这会让他们更容易受到欺诈者的攻击。”

该银行鼓励人们与亲人设置一个“安全短语”——一个简单、随机、容易记住且与其他密码不同的短语——可用于通过电话验证身份。

贷款人建议不要通过短信分享安全短语,因为这可能会让骗子更容易找到。

如果以这种方式分享,则应在对方看到后立即删除该消息。

随着人工智能越来越擅长模仿人类的声音,人们越来越担心它可能会伤害人们,例如帮助犯罪分子访问他们的银行账户并传播错误信息。

今年早些时候,生成式人工智能聊天机器人ChatGPT的制造商OpenAI推出了其语音复制工具Voice Engine,但当时并未向公众开放,理由是“合成语音有可能遭到滥用”。

window._taboola = window._taboola || []; _taboola.push({ mode: 'thumbnails-mob-1x1', container: 'taboola-mobile-below-article-thumbnails', placement: 'Mobile below article thumbnails', target_type: 'mix' });





欢迎光临 澳洲同城网 (https://www.tongchengau.com/) Powered by Discuz! X3.2