• 最近访问:
发表于 2024-09-10 02:12:30 股吧网页版
1.0版《框架》公开,人工智能安全治理有了指引
来源:北京商报 作者:魏蔚

  人工智能是人类发展新领域,给世界带来巨大机遇,也带来了各类风险挑战。9月9日,全国网络安全标准化技术委员会制定的《人工智能安全治理框架》1.0版(以下简称《框架》),对外公开发布。《框架》将人工智能安全风险按内生安全和应用安全分类,并给出相应的技术应对措施。围绕“鼓励创新,对人工智能研发及应用采取包容态度”“快速动态精准调整治理措施”“明确主体安全责任”“共享最佳实践”的原则,《框架》推动各方就人工智能安全治理达成共识,促进人工智能安全有序发展。

  《框架》提出,人工智能系统设计、研发、训练、测试、部署、使用、维护等生命周期各环节都面临安全风险,既面临自身技术缺陷、不足带来的风险,也面临不当使用、滥用甚至恶意利用带来的安全风险。

  其中人工智能内生安全风险包括模型算法安全风险、数据安全风险、系统安全风险,人工智能应用安全风险包括网络域安全风险、现实域安全风险、认知域安全风险和伦理域安全风险。

  上述风险中模型算法安全风险的篇幅最长,共细化成六方面:可解释性差;偏见、歧视;鲁棒性弱;被窃取、篡改;输出不可靠;对坑攻击。以排在第一位的可解释性差为例,此风险是指以深度学习为代表的人工智能算法内部运行逻辑复杂,推理过程属黑灰盒模式,可能导致输出结果难以预测和确切归因,如有异常难以快速修正和溯源追责。

  针对此类风险,《框架》指出要不断提高人工智能可解释性、可预测性,为人工智能系统内部构造、推理逻辑、技术接口、输出结果提供明确说明,正确反映人工智能系统产生结果的过程。在设计、研发、部署、维护过程中建立并实践安全开发规范,尽可能消除模型算法存在的安全缺陷、歧视性倾向,提高鲁棒性。

  让大模型给出的结果更精准,是大模型落地到企业端的基础,可见治理此类风险对整个行业的重要性。

  在和北京商报记者交流时,枫清科技创始人兼CEO高雪峰表示,大模型在企业落地时,会遇到一系列问题,主要是因为大模型自身的局限性、黑箱问题以及数据或者知识的问题,“由于大模型的复杂性过高,涉及大量参数和层,使得可解释性变得更加困难,推理过程不透明,往往是基于大量参数网络的序列预测。大模型生成内容的逻辑与依据很难给出相应的解释,或者是其内容生成的概率分布,人们无法理解,即使是专业研究人员也很难理解模型是如何得出某个结论的,普通用户更难以理解模型为什么输出这样的内容”,高雪峰详细说。

  全国网络安全标准化技术委员会秘书处主要负责人表示,《框架》的发布,对推动社会各方积极参与、协同推进人工智能安全治理具有重要促进作用,为培育安全、可靠、公平、透明的人工智能技术研发和应用生态,促进人工智能的健康发展和规范应用,提供了基础性、框架性技术指南。同时,也有助于在全球范围推动人工智能安全治理国际合作,推动形成具有广泛共识的全球人工智能治理体系,确保人工智能技术造福于人类。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
郑重声明:用户在社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500