2024年即将落下帷幕,2025年即将到来。在过去的一年里,热搜上的许多现象级词条,成为了人们讨论的焦点:“黑神话”、新文旅、人工智能、“猛兽”下山……这些热点背后,都折射出了哪些深层次的社会话题?欢迎大家做客我们评论员的“年终茶话会”,与我们一同走进时间与思想的观察室。
ChatGPT横空出世之后,人工智能领域热度持续升温,2024年迎来了更为迅猛的发展浪潮。
这一年里,技术革新层出不穷,不管是年初OpenAI发布的文生视频模型Sora,还是人形机器人的惊艳亮相,抑或“AI复活亲人”在网络上掀起热潮,人工智能的火爆,正深刻重塑着人类与机器之间的关系。
放眼人类文明发展史,从工业革命到电气革命,再到互联网将世界拉入到数字时代,再到AI革命浪潮,科技的影响日益深远,技术迭代的步伐显著加快,人工智能领域短短几年的创新和发展,就已经给我们的生活带来了翻天覆地的变化。
如今,大型语言模型能在几秒钟内,完成一篇文章的撰写;视频创作门槛同样大幅降低,输入几个关键词,就能迅速生成一段栩栩如生的视频;无人驾驶的网约车也已悄然上路,穿梭在城市的大街小巷……
当然,在人工智能高速发展的同时,人们对技术创新的担忧,也达到了前所未有的高度。
这种担忧不只在于,它可能抢走一部分人的饭碗,更在于,拥有如此巨大能量的AI,一旦失控,可能会带来无法预料的后果,打开潘多拉的魔盒。
回顾这一年的AI话题,不难发现,人工智能领域的违法犯罪乱象,同样在快速滋长。清华大学此前发布的《揭秘AI谣言:传播路径与治理策略全解析》显示,AI谣言量近半年增长65%,人工智能造成的“信息污染”,已经成为社会治理的一个严峻议题。
比如此前,多地公安机关已通报多起利用AI工具进行造谣的案件。在这些案件中,不法分子滥用大型语言模型技术,批量制造虚假新闻,博取流量,谋取非法利益。更有甚者,利用AI软件生成视频,捏造诸如地铁行凶等虚假场景,造成恶劣社会影响。
一个不容忽视的事实是,人工智能在赋予人们便捷之余,也极大地降低了造谣的成本,为不法分子提供了可乘之机。谣言能够被快速地批量生产,逼真的虚拟视频,更是颠覆了“有图有真相”的传统观念,使得真相与谣言的界限变得模糊。
谣言的生产传播问题,毕竟有相关法律法规进行约束,更棘手的是,AI乱象还牵涉出一些更复杂的议题:
当AI不仅能一键“脱衣”,还能合成音、视频,用于变声、换脸时,我们的数据和隐私安全如何保障?算法生成的内容,如何界定版权的归属?当人工智能驱动的无人驾驶网约车发生事故,责任归属问题又该如何划分?
这正是技术创新所带来的核心挑战:现有的法律和规则,往往难以与技术进步保持同步,监管常常会出现滞后,进而引发一系列新的社会治理难题。
我们当然不能因为乱象的存在,就陷入过度恐慌,甚至因噎废食,否定人工智能创新的积极意义。然而,相较于以往的技术革命,AI发展所呈现出来的新特征,比如对经济社会的影响更深入、技术迭代更快,它提醒我们必须迅速行动,填补发展中的漏洞。
今年9月,《人工智能生成合成内容标识办法(征求意见稿)》公开征求意见,其中要求,对人工智能生成合成内容,要有明确的标识,避免误导大众,减少虚假信息的传播。
人工智能生成合成内容,仅是其广泛应用的众多领域之一。接下来,还得在数据安全、隐私保护等多个维度,持续强化法律法规建设,对AI服务提供者、用户及网络传播平台等核心参与者的责任与义务,进行更为明确的界定,为监管体系奠定坚实的法律基础。
技术本质上是一种中性的工具,并无善恶之分。包括“信息污染”在内的种种AI乱象,不是技术出了问题,而是提供、使用技术的人越界了。
因此,有效遏制AI领域的乱象,不仅要建立健全相关法律法规,还要严格规范监管技术背后的行为主体。
具体而言,针对AI相关的违法犯罪行为,持续强化全链条的打击力度,提高违法犯罪成本,倒逼各行为主体自觉遵守法律法规。
任何领域的技术创新,都会伴随相应的风险,尤其在AI时代,技术释放的能量巨大,负面风险显著放大。唯有构建更为完善的规则体系,采用科学的治理方法,有效应对人工智能领域的种种乱象,才能真正意义上实现推动“技术向善”。
特约评论员熊志