Menu

警惕“静音电话”!骗子用AI偷走你的声音,只需3秒!

意大利华人网2025年10月15日编译消息:近年来,随着人工...
网络新闻 4 小时 之前

意大利华人网2025年10月15日编译消息:近年来,随着人工智能技术的普及,一种看似无害的“静音电话”骗局正悄然蔓延。骗子只需几秒钟录下你的声音,就能用AI技术克隆出“你的声音”,制造令人真假难辨的诈骗陷阱。




电话响起,你接听,却听到对方一片沉默。你下意识地说了几句“喂?听得到吗?”,然后挂断。看似普通的误拨电话,实际上可能是一场有预谋的声音盗取行动。诈骗团伙利用自动拨号系统,每天能拨出上千通电话。一旦有人接听,系统就会标记该号码为“活跃有效”,并在黑市网络中共享。这些号码可能被用于钓鱼诈骗、机器人拨号,或被AI语音公司用作“克隆素材”。

只要几秒钟的语音片段,AI就能重建你的声音。网上有许多廉价、易用的语音克隆工具,可以精准模拟音色、语调和语气,甚至连家人都难以分辨真假。骗子利用这些“声音分身”,能伪装成你的亲人打电话求助、以假冒身份索要钱款,甚至冒充本人进行银行账户操作。

研究显示,如今人类已经很难分辨真假声音。发表在《PLoS One》期刊的一项最新研究指出,AI生成的声音越来越逼真。在实验中,参与者需要判断80段声音样本中哪些是真实人声、哪些是人工合成。结果发现,人们大多能识别出完全AI生成的声音,但当AI以真人录音为基础进行克隆时,超过一半的参与者误认为那是真人。而在真实语音中,仅62%被正确辨认为“人类声音”,这意味着AI的模仿能力已几乎以假乱真。

专家警告,这类AI语音诈骗之所以危险,是因为监管和追踪几乎无从下手。美国加州大学伯克利分校数字取证专家哈尼·法里德(Hany Farid)指出:“这是一场完美风暴。AI能分析年龄、性别、口音、语调等特征,并在数据库中寻找匹配样本进行重建。过去要克隆一个人的声音需要很长音频,如今只要你在社交媒体上发过视频或录音,几秒钟就足够。”

那么,如何防范此类诈骗?

专家建议:

接到陌生号码来电时,不要主动开口,让对方先说话;如果无人回应,应立即挂断。

事后可直接屏蔽该号码并标记为可疑。

对于熟人突如其来的“求助电话”,应通过短信或邮件提前确认对方身份。

不要轻信来电显示,因为AI也可以伪造号码。

AI技术的便利正在被不法分子滥用。保护自己的声音安全,已经成为新的网络防骗课题。

(异域 编译)

声明:转载此文是出于传递更多信息之目的。若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网联系,我们将及时更正、删除,谢谢

           – 推广 –