您当前的位置:首页 > 新闻 > 行业动态 >

紧急提醒!接到陌生电话先别出声:只需5秒,你的“声音”就能被“偷走”

已被阅读次 | 发表时间:2026年03月31日 09点09分

随着人工智能技术

和语音大模型应用的发展

如今,AI声音随处可见

但相关乱象也随之频发

从“张文宏医生”推销蛋白棒视频

被本人“打假”

到多位配音演员发声维权

控诉声音被AI“盗用”

再到不法分子利用AI合成语音

实施新型电信诈骗……

而这一系列乱象背后

声纹被盗用

正是其核心风险所在

 

仅需5秒

你的“声音”就能被偷走

 

声纹如同指纹一样具有唯一性,是个人身份的重要生物标识。而随着人工智能语音合成技术的成熟,声纹的采集与复刻门槛已大幅降低。

 

据国内声纹识别领域领军企业相关负责人表示,当前技术水平下,仅需5到10秒的语音样本,即可完整提取并复刻一个人的声纹。

 

5-10秒语音就能复刻你的声纹

 

这些样本往往来自日常通话中的随意应答、社交平台上的语音留言、彩信、短视频,甚至是在与陌生号码“闲聊”时不经意间留下的声音片段。

 

此前,央视也曾曝光过AI克隆声音乱象,在多个网络平台上,以“声音克隆”为关键词进行搜索,能轻易找到大量相关教程视频和软件下载信息。部分博主不仅详细演示操作过程,还直接提供软件资源。

 

网络安全专家潘季明介绍,基于开源的语音大模型,只需一段清晰的语音样本,任何人的声音都可能在极短时间内被克隆,并能被操纵说出攻击者设定的任意内容。

 

新型诈骗套路用你的声音

骗你的亲友

 

当前,一种正在悄然蔓延的新型诈骗模式:犯罪分子通过非法渠道获取目标人物的少量语音样本,利用AI语音合成技术复刻其声纹,再冒充本人向亲友实施诈骗。

 

“妈,我手机丢了,这是我新号,急需用钱!”“爷爷我打架进派出所了!”“姥姥我女朋友怀孕急需手术费!”骗子通过非法渠道获取家庭信息,用哭喊、喘息声甚至AI合成语音模拟求救声音,虚构车祸、斗殴、疾病等突发事件制造恐慌。

 

声音几乎一模一样,再加上情感上的紧迫感,亲属很容易放松警惕。这类骗局之所以成功率极高,正是因为它绕过了传统诈骗中“口音不正”“话术生硬”的弱点,直接利用了人与人之间最基础的信任——声音的辨识。

 

日常生活中如何警惕并防范

声纹被盗用及AI换声诈骗

 

不随意与陌生号码“闲聊”

 

接到自称“客服”“熟人”“公检法”等陌生来电时,避免长时间对话,更不要主动提供语音回应。一旦发现可疑,立即挂断。

 

不随意发送语音与彩信

 

在社交平台、短视频、短信等场景中,避免向陌生账号或公开渠道发送个人语音信息。语音彩信、语音留言同样可能被截取利用。

 

选择可信平台

 

不要随意下载未经官方认证的App,即便其提供免费通话或其他看似诱人的功能,也可能暗藏陷阱。

 

涉及转账汇款,务必“双重核实”

 

凡是接到亲友通过陌生号码、社交平台新号提出借钱、转账、代付款等请求,必须通过原有联系方式进行视频通话或当面核实。仅凭“声音像”就转账,存在极高风险。

 

声纹和身份证、银行卡密码一样

是我们个人核心隐私的一部分

无论是主动规避

抑或是在信息泄露后

及时止损、留存证据维权

每一步都需要我们

主动警惕、积极行动

 

保护好个人敏感信息

就是守住个人权益的第一道关卡

唯有重视细节、做好防范

才能让信息泄露的“暗箭”

无处可藏

 

来源:东方网综合央视新闻、湖北日报、法治日报、深圳新闻网

上一篇:持续疯狂的内存市场终于迎来了降温?
下一篇:行业首创!索诺克将发布S-VIDS技术RGB纯三色激光引擎方案


免责申明:本站行业动态栏目中所有资讯文章均取自于网络,不代表本站观点,如有侵权,请联系我们删除。

织梦二维码生成器

更多新闻

案例展示