10月8日,2024年诺贝尔物理学奖颁发给两位人工智能专家,以表彰他们使用物理学工具为强大的机器学习方法奠定基础。其中一位获奖者发明了联想记忆,可以存储和重构图像,AI图像识别等技术就是在此基础上发展而来。有趣的是,就在诺奖颁发前夕,韩国国会刚通过一项法案,把“拥有或观看AI换脸的色情图片和视频”这一行为定为犯罪,刑罚包括罚款和监禁等。
韩国AI换脸色情犯罪事件从今年5月开始发酵。当时,韩国媒体曝光,两个首尔大学的学生利用AI技术Deepfake,换脸合成了色情相片和视频,并通过通信软件进行传播,受害女性达到61人。8月底,韩国妇女人权研究所公布了一组数据,今年以来共有781名AI换脸受害者在线求助,其中36.9%是未成年人。另一家韩国媒体进一步报道,一个与AI换脸相关的网络聊天室竟然吸引了22万人,受害者包括大量学生和未成年人,受到影响的学校超过200所。
据美国安全服务机构发布的《2023深度伪造技术现状》统计,在深度伪造技术受害人物中,53%是韩国人,超过了美国(20%)、日本(10%)和英国(6%)加起来的总和。韩国政府已经做了一些补救措施,从2005年开始修订了约300项改善歧视女性的法律法规,此次换脸事件发酵后也承诺投入20亿韩元来开发识别、抑制换脸技术的系统,并通过了定性犯罪的法案。但是在实操层面,却很难发挥真正的威慑力。
为什么韩国会成为换脸色情犯罪的重灾区?一是因为参与人数众多,难免出现法不责众的情况。像上文提到,一个网络聊天室就有22万人订阅,韩国每年的新生人口也不过23万人。在警力有限的情况下,很难将所有犯罪者都绳之以法;二是“未成年”成为犯罪者的挡箭牌。据称,韩国几乎每所学校都有一个隐秘的网络聊天室,用于传播AI换脸色情内容。上文提到,受害者有很大一部分是未成年人,可加害者中也有不少未成年人。他们的父母也“护犊情深”,主张这种行为只要批评教育就行了,完全没必要上升到刑罚的程度。
其实,问题的根源就在于,韩国社会普遍存在性别歧视。韩国国内调查显示,有58.6%的年轻男性明确表示反对女权主义,其中25.9%是“极端强烈”反对。有一种说法笔者很赞同,“性暴力实质上反映的是一种想要侮辱和控制女性的心态”。韩国女性在“AI换脸”事件中无助到什么程度呢?她们已经不相信自己的政府和媒体,只能借助翻译器在其他国家的网络上发布求助帖,甚至声称“韩国女性没有国家”。
另一个值得反思的问题是,前沿技术再度成为人性本恶的“放大镜”。“AI换脸”的技术起源是Deepfake,也称为“深度伪造”,是以色列一家公司开发的。通过这项技术,只要投入海量的学习素材,合成的相片和视频的真实性便会越来越高。在深度学习神经网络的基础上,Deepfake技术不停更新迭代,最终演变出门槛极低、连小学生都可以操作的“AI换脸”技术,并被滥用于色情内容。然而,美国人霍普菲尔德正是因为“利用人工神经网络进行机器学习做出的基础性发现和发明”获得今年的诺贝尔物理学奖。
每一次科学技术的进步,都会伴随着善与不善、法与非法的争议。针对Deepfake技术的“野蛮生长”,谷歌、微软、Meta等巨头都相继行动,提高识别探测的能力,切断恶意换脸内容的传播渠道。我们不能因噎废食阻止科技发展,只能从技术、法律的角度,尽可能把前沿科技往“善”的方向引导,向“不善”的倾向亮剑。