3秒音频就能克隆你的声音!AI语音诈骗兴起,银行呼吁储户当心
<div style='font-size:1em;'><p> <p> 一家大型银行警告称,诈骗犯只需三秒钟的音频,就可能窃取你账户里的储蓄。 <p><p><br><br>data/attachment/forum/202409/21/img_cdn_138_7361726916404.jpg<br><p><p> 英国银行Starling Bank周三表示,该行上个月与Mortar Research联合进行的一项调查显示,超过四分之一的受访者曾在过去12个月中,成为AI语音克隆骗局的目标。 <p><p> 调查还显示,46%的受访者不知道存在此类骗局,8%的受访者表示会按照朋友或家人的要求汇出尽可能多的钱,即使他们认为通话里的声音很奇怪。<p><p><br><br>data/attachment/forum/202409/21/img_cdn_138_48811726916406.jpg<br><p><p> (图片来源:网络) <p><p> Starling Bank首席信息安全官Lisa Grahame表示:“人们经常在网上发布包含他们声音录音的内容,却从未想过这会让他们更容易受到欺诈者的攻击。” <p><p> 该银行鼓励人们与亲人设置一个“安全短语”——一个简单、随机、容易记住且与其他密码不同的短语——可用于通过电话验证身份。 <p><p> 贷款人建议不要通过短信分享安全短语,因为这可能会让骗子更容易找到。 <p><p> 如果以这种方式分享,则应在对方看到后立即删除该消息。 <p><p> 随着人工智能越来越擅长模仿人类的声音,人们越来越担心它可能会伤害人们,例如帮助犯罪分子访问他们的银行账户并传播错误信息。 <p><p> 今年早些时候,生成式人工智能聊天机器人ChatGPT的制造商OpenAI推出了其语音复制工具Voice Engine,但当时并未向公众开放,理由是“合成语音有可能遭到滥用”。 <p>
<div id="taboola-mobile-below-article-thumbnails"></div>
window._taboola = window._taboola || [];
_taboola.push({
mode: 'thumbnails-mob-1x1',
container: 'taboola-mobile-below-article-thumbnails',
placement: 'Mobile below article thumbnails',
target_type: 'mix'
});
</div>
页:
[1]