• 最近访问:
发表于 2024-07-06 16:49:10 股吧网页版
探“真”访谈:世界人工智能大会上,参观者被造了张“假脸”,怎么办?
来源:上海网络辟谣

  “黑客”拿着摄像头,拍下一张参观者的照片。10几秒过后,出现了参观者“护照照”“明星照”“生活照”等不同风格照片;接着,又生成了一段带有抬头、转头、张嘴、眨眼等动作的视频,几乎与真人视频无异。然后,“黑客”试图利用这段视频,解开参观者所使用的人脸识别密码……

图片

AI造脸吸引很多体验者(作者摄)

图片

AI只花10几秒钟就生成不同形式的照片以及动态视频,真假难辨(作者摄)

  在2024世界人工智能大会的展会上,一项名叫“谍影重重”的深度造假(Deepfake)互动体验吸引了众多参观者,排队等候生成“假脸”。面对短时间生成的数字形象,尤其是动态的视频形象,很多体验者连呼“太像了”。不过,“黑客”使用视频形象解锁“人脸识别”时,反深度造假平台ZOLOZ提示,视频涉嫌深度造假,解锁不成功。

图片

同样是利用人工智能技术,AI制造的假脸视频被识破(作者摄)

  “我们希望通过这一互动,让大家了解深度造假,不要轻信各种视频、图像。同时,呼吁更多的应用者和研发者关注深度造假,用技术手段降低风险。”展台工作人员介绍,随着人工智能的发展,“AI换脸”的水平越来越高,几乎真假难辨。但针对性的技术研发,有机会“用魔法打败魔法”。在“谍影重重”互动中,ZOLOZ能识别出视频造假,正是应用了人工智能:对用户面部动态进行细致入微的分析,捕捉微表情、肌肉纹理、眼神流转等细微特征,判断其是否为真人实时互动。目前,相关技术已经应用在金融等领域。

图片

用人工智能技术从细节判断真伪(AI制图)

  人工智能治理是今年世界人工智能大会的重要议题,而防范人工智能造假,具有很强的现实意义。申城好网民专家、中国网安协会数据安全专家、上海临港数据评估有限公司总监宗良介绍,以往的造假以文字编造、图片编辑(PS)、视频剪辑等居多。但基于生成式人工智能,出现了“文生文”“文生图”“文生视频”“图生视频”等造假方式,“以假乱真”的现象愈发普遍,还被不法分子利用,比如香港警方披露的、涉案金额高达2亿港元的“AI多人换脸”诈骗案等。

  面对新的造假方式,公众要提高警惕,不轻信网络上的视频和图像。同时,若在视频通话中觉得可疑,可以让对方摸脸、按鼻子,或者主动切换成方言对话,增加AI造假的难度,导致AI造假露出破绽,从而鉴别真伪。

  此外,公众要注意保护个人隐私。现场的体验让大家看到,一张照片就能生成真假难辨的动态“假脸”,这说明,每个人都要保护好自己的信息,包括面部信息、静态照片等,避免被不法分子利用。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
郑重声明:用户在社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500