• 最近访问:
发表于 2024-06-20 19:26:40 股吧网页版
前OpenAI联合创始人创立新公司!安全超级智能是唯一目标
来源:创业资本汇

  在去年OpenAI“宫斗事件”中最终出局的前首席科学家,自己出来创业了。

  北京时间6月20日凌晨,前OpenAI联合创始人、前首席科学家Ilya Sutskever(伊利亚·苏茨克韦尔)在个人社交平台宣布,正在创办一家名为SSI(Safe Super intelligence inc,安全超级智能)的公司,旨在“直截了当”地创造安全的超级智能。

  离职一个月后创办新公司

  就在一个月前的5月15日,苏茨克韦尔才宣布从OpenAI离职。彼时,他在个人社交平台称,OpenAI的发展轨迹堪称奇迹,他相信OpenAI将在几位高管的领导下构建安全又有益的AGI(通用人工智能)。他同时透露,自己未来将筹备开启一个新项目,这是一个对他个人而言非常有意义的项目,他将在适当的时候分享细节。

  据悉,SSI公司的另外两位联合创始人分别为前苹果AI高管Daniel Gross和前OpenAI技术团队成员Daniel Levy。公开资料显示,Daniel Gross曾创办搜索引擎公司Greplin,在该搜索引擎被Apple收购后担任Apple的AI和搜索项目负责人。Daniel Gross曾被《时代》周刊评为首届全球百大AI人物之一。而Daniel Levy作为苏茨克韦尔的前同事,在OpenAI时就与苏茨克韦尔一起训练大型AI模型。

  记者在SSI公司的官方账号上发现,该公司称安全超级智能是其唯一的关注点。“我们的团队、投资者和商业模式都致力于实现安全超级智能。我们将安全性和能力作为技术问题,通过革命性的工程和科学突破来解决。我们计划尽快提升能力,同时确保我们的安全性始终保持领先地位。”据了解,SSI公司已经启动了世界上第一个SSI实验室,目标与产品都只有一个:安全超级智能。

  值得注意的是,公司还专门提到,由于专注于安全超级智能,公司不会受到管理开销或产品周期的干扰,也不会受到短期商业压力的影响。在外界看来,这似乎是在影射在追逐盈利和商业化道路上逐渐降低安全要求的OpenAI。

  作为OpenAI的前首席科学家,苏茨克韦尔被外界称为“纯粹的技术理想主义者”,曾是OpenAI“超级对齐”团队的联合领导人。在人工智能领域,“对齐”指的是用正确的人类价值观对人工智能进行编程,从而避免出现科幻小说中邪恶机器带来的消极后果。因此,苏茨克韦尔十分注重人工智能安全,这与奥特曼希望加速OpenAI产品的商业化进程,短期快速盈利的目标有所冲突。

  去年11月,OpenAI曾发生剧烈的人事动荡。公司发布公告,宣布将免除奥特曼CEO职务,并将其驱逐出董事会。当时,苏茨克韦尔被外界视作这场“宫斗”大戏的策划者。在解雇奥特曼以后的一场公司内部会议中,苏茨克韦尔曾表示OpenAI面临安全风险和激进的商业化策略问题,并透露奥特曼之所以被驱逐,是因为其在安全上的冒进和过度商业化。彼时,OpenAI产品存在不少安全问题,而且产品发布节奏太快,接连曝出多项重大事故,显示了奥特曼急切的商业盈利主张。

  然而几经反转,奥特曼重返OpenAI担任首席执行官,而苏茨克韦尔在此事件后也逐渐淡出公众视野。在OpenAI的许多重大事件,例如前段时间GPT-4o的发布会中均不见苏茨克韦尔的踪影,他似乎逐渐变为公司的“边缘人员”。

 

  AI安全问题引发关注

  苏茨克韦尔的境遇,其实是OpenAI当前加速商业模式探索、降低安全优先级这一价值观转向的体现。

  在苏茨克韦尔5月15日宣布离职后,OpenAI前首席安全研究员Jan Leike也紧随宣布离开公司。Jan Leike在其社交平台上发布的帖子中表示,在过去的几个月里,他的团队一直在“逆风航行”,有时会为算力资源苦苦挣扎,完成关键的安全研究变得越来越困难。他认为OpenAI“未走在解决AI安全和安保问题的正确轨道上”。

  5月17日,在苏茨克韦尔离职两天后,OpenAI就宣布解散“超级对齐”团队。然而事实上,OpenAI在过去的半年中已经有多名负责AI安全的员工辞职或被开除。据OpenAI内部人士爆料,公司安全意识强的员工已经对奥特曼的领导失去了信心。

  特斯拉首席执行官马斯克针对“超级对齐”团队解散这一消息评论称,“这显示安全并不是OpenAI的首要任务。”据外媒报道,OpenAI“超级对齐”团队的解散证实了一件事:OpenAI的领导层,尤其是奥特曼选择目前优先考虑的是产品,而不是安全措施。苏茨克韦尔将注意力集中在确保人工智能不会伤害人类上,而包括奥特曼在内的其他人更渴望推动新技术的发展。在过去一年时间里,安全在OpenAI中已处于次要地位。

  随着人工智能技术的快速发展,对其安全的监管问题也被置于越来越重要的位置。“AI教父”Geof-frey Hinton最近在接受媒体采访时表示,AI很快将超越人类智能,但人类对AI发展安全性方面的重视程度不够。普华永道的一项研究称,在疏于监管的情况下,生成式AI可能会生成违法或不当的内容,并可能导致危及知识产权保护。

  事实上,过度商业化、忽视安全性是OpenAI及其首席执行官奥特曼一直饱受外界质疑的地方。因此,外界对于苏茨克韦尔创办一家“目标与产品都只有安全超级智能”的公司,也便充满期待。奥特曼与苏茨克韦尔最终分道扬镳了,而人类在发展人工智能的道路上,未来或许也将走到一个“选择技术”与“选择安全”的岔路口。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
郑重声明:用户在社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500