股吧首页 > 微软吧 > 正文
  • 最近访问:
发表于 2024-05-22 01:06:00 股吧网页版
科技巨头承诺安全开发AI模型:极端风险下会“自拔网线”
来源:财联社

K图 MSFT_0]

K图 AMZN_0]

  当地时间周二(5月21日),微软、亚马逊、OpenAI等科技巨头在“人工智能(AI)首尔峰会”上就AI安全达成了一项具有里程碑意义的国际协议。

  此次峰会由韩国与英国共同主办,是去年11月在英国召开的全球人工智能安全峰会的后续会议,以“安全、创新、包容”为主题。

  这项国际协议将让来自全球多国的企业做出自愿承诺,确保他们是以安全的方式开发AI前沿模型。

  制作AI模型的公司需要发布安全框架,列出衡量潜在风险的方式,例如检查不良行为者滥用技术的风险。

  框架将包括针对科技公司的一些被视为无法容忍的“红线”,包括但不限于自动网络攻击和生物武器的威胁。

  一旦发现了这种极端情况,如果不能保证降低风险,企业们就需要打开“紧急停止开关”(kill switch),叫停AI模型的开发进程。

  英国首相苏纳克在一份声明中写道:“这还是首次,有如此多来自全球不同地区的领先AI公司都同意在人工智能安全方面做出同样的承诺。这些承诺将确保全球领先的AI公司,让他们的AI计划提供透明度和问责制。”

  去年11月,在英国AI安全峰会上,与会方签署了一份《布莱奇利宣言》(Bletchley Declaration),称各方需要共同努力,设定共同的监管方法。

  《布莱奇利宣言》写道,AI为全球带来了巨大的机遇,它有潜力改变或增强人类福祉、和平与繁荣。同时,AI还带来了重大风险,包括在日常生活领域,“所有问题都至关重要,我们确认解决它们的必要性和紧迫性。”

image

  法国将于2025年初举办下一届AI安全峰会,企业们同意在这次会议前征询意见,并公布于众。

  日内,欧盟理事会正式批准《人工智能法案》,这是全球首部AI领域的全面监管法规,违反法规的相关方将被追究责任。然而,英国方面还没有提出类似的AI法律。

  与美国的主张类似,英国选择了一种名为“轻触式”的监管方式,通过行业自律和个案监管来应对新兴风险,旨在避免过度干预阻碍技术创新。

  在明天的部长级会议期间,各国高级官员将以今日的讨论内容为基础,就进一步保障AI安全性、推进可持续发展等具体合作方案展开讨论。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
郑重声明:用户在社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500