7News 发表于 2024-9-21 21:00:05

3秒音频就能克隆你的声音!AI语音诈骗兴起,银行呼吁储户当心

<div style='font-size:1em;'>
                                                <p>                        <p>                        一家大型银行警告称,诈骗犯只需三秒钟的音频,就可能窃取你账户里的储蓄。                <p><p><br><br>data/attachment/forum/202409/21/img_cdn_138_7361726916404.jpg<br><p><p>                        英国银行Starling Bank周三表示,该行上个月与Mortar Research联合进行的一项调查显示,超过四分之一的受访者曾在过去12个月中,成为AI语音克隆骗局的目标。                <p><p>                        调查还显示,46%的受访者不知道存在此类骗局,8%的受访者表示会按照朋友或家人的要求汇出尽可能多的钱,即使他们认为通话里的声音很奇怪。<p><p><br><br>data/attachment/forum/202409/21/img_cdn_138_48811726916406.jpg<br><p><p>                        (图片来源:网络)                <p><p>                        Starling Bank首席信息安全官Lisa Grahame表示:“人们经常在网上发布包含他们声音录音的内容,却从未想过这会让他们更容易受到欺诈者的攻击。”                <p><p>                        该银行鼓励人们与亲人设置一个“安全短语”——一个简单、随机、容易记住且与其他密码不同的短语——可用于通过电话验证身份。                <p><p>                        贷款人建议不要通过短信分享安全短语,因为这可能会让骗子更容易找到。                <p><p>                        如果以这种方式分享,则应在对方看到后立即删除该消息。                <p><p>                        随着人工智能越来越擅长模仿人类的声音,人们越来越担心它可能会伤害人们,例如帮助犯罪分子访问他们的银行账户并传播错误信息。                <p><p>                        今年早些时候,生成式人工智能聊天机器人ChatGPT的制造商OpenAI推出了其语音复制工具Voice Engine,但当时并未向公众开放,理由是“合成语音有可能遭到滥用”。                <p>                                               
                                                                                                       
<div id="taboola-mobile-below-article-thumbnails"></div>


window._taboola = window._taboola || [];
_taboola.push({
    mode: 'thumbnails-mob-1x1',
    container: 'taboola-mobile-below-article-thumbnails',
    placement: 'Mobile below article thumbnails',
    target_type: 'mix'
});


                                               
                  </div>
页: [1]
查看完整版本: 3秒音频就能克隆你的声音!AI语音诈骗兴起,银行呼吁储户当心