一样的脸,
熟悉的声音,
一定是你认识的那个他吗?
“眼见为真,耳听为实”?
其实不然。
正值2024 年“金融教育宣传月”,金融教育宣传是为了切实提升社会公众的风险防范意识和能力,今天我们将和大家一起了解下AI诈骗新陷阱。
随着科技的飞速发展,人工智能(AI)技术逐渐成为日常生活中的得力助手,AI换脸和拟声技术是人工智能技术在图像和语音领域的重要应用之一。但其也给大众带来了新的安全隐患——AI诈骗。
2024年3月15日,2024年中央广播电视总台315晚会曝光了使用“AI换脸”进行诈骗的行为。
2024年7月25日,国家金融监督管理总局金融消费者权益保护局发布防范新型电信网络诈骗风险提示,将“AI换脸拟声”纳入其中,作为专门类诈骗。据介绍,AI换脸拟声类金融诈骗,多为不法分子以“网店客服”“营销推广”等为借口联系消费者,采集发音、语句或面部信息,之后利用“换脸”“拟声”等技术合成消费者虚假音频、视频或图像,模拟他人声音或形象骗取信任,诱导其亲友转账汇款等。
其中最常见的两种诈骗方式就是声音合成与AI换脸。
1、声音合成
骗子通过骚扰电话录音等来提取某人的声音,获取素材后进行声音合成,从而可以用伪造的声音进行诈骗。
2、AI换脸
人脸效果更易取得对方信任,骗子用AI技术换脸,可以伪装成他人,在视频通话中利用AI换脸,骗取信任。
如何防范AI诈骗呢?
1、加强安全意识。警惕不明来源的信息和可疑的交易,不轻信陌生人的请求或信息,避免将敏感信息泄露给不信任的第三方。
2、谨慎对待网络交易。避免点击恶意链接或下载不可靠的附件,确保支付环节安全可靠。
3、保护个人信息安全。不要在不安全的网络环境下输入银行卡账号、密码、手机验证码等敏感信息。避免在互联网过多暴露个人照片、声音、视频等信息,不轻易将个人照片、声音等隐私信息分享给陌生人或不可信的平台。
4、谨慎对待线上联系。涉及转账、提供个人信息或点击链接时,如遇到可疑情况,及时进行核实。多重核验,确认身份,比如说可以让对方在脸前挥手、摁鼻子、捏脸等,观察其面部是否出现变形、抖动等。还可以拨打对方常用的电话号码,而非所谓的“新号码”,进一步核实对方身份。
AI诈骗已经成为一种新型犯罪手段,给我们的生活带来了不可忽视的威胁。我们要时刻保持警惕,加强自我防范意识,共同营造一个安全、和谐的网络环境。让我们携手共进,共同抵御AI犯罪的侵害!
AI诈骗案件频发
小伙伴们要注意
千万不要上当了!!!
内容来源:国家金融监督管理总局金融消费者权益保护局发布相关宣传文章。
#九月基金投资策略#
风险提示:本文仅为投资者教育,介绍防范AI诈骗相关知识。如需购买基金产品,请您关注投资者适当性管理相关规定,提前做好风险测评,并根据您自身的风险承受能力购买与之相匹配的风险等级的基金产品。基金的过往业绩并不预示其未来表现,基金管理人管理的其他基金的业绩并不构成基金业绩表现的保证。基金投资须注意投资风险,请仔细阅读基金合同、基金招募说明书和产品资料概要等法律文件,了解基金的具体情况。