• 最近访问:
发表于 2024-09-16 20:18:50 股吧网页版
大模型“慢思考模式”成大势所趋 360发布CoE架构提前卡位
来源:中国证券报·中证网

K图 601360_0]

  中证网讯(记者傅苏颖)日前,OpenAI发布的o1-preview引发业内广泛关注。据悉,o1-preview的工作原理本质上是CoT(Chain-of-Thought,思维链)的自动化,把一个复杂问题拆解成若干简单步骤,从而有利于大模型解决复杂的逻辑问题。o1采用的这种“慢思考模式”,将使复杂人工环节的自动化成为大势所趋。

  据悉,这种方法并非OpenAI首创,早在7月底的ISC.AI 2024大会上,360集团创始人周鸿祎就宣布,“用基于智能体的框架打造慢思考系统,从而增强大模型的慢思考能力”,并多次表达类似观点。同时,360发布的CoE(Collaboration-of-Experts,专家协同)技术架构及混合大模型,就是该方法的产物,该技术架构也已应用于多个产品中,比如360 AI搜索、360 AI浏览器。

  值得一提的是,CoE架构并非只接入了一家企业的模型,而是由360牵头,百度、腾讯、阿里巴巴、智谱AI、Minimax、月之暗面等16家国内主流大模型厂商合作打造,目前已接入了这些企业的54款大模型产品,未来预计会全量接入100多款大模型产品。

  同时,CoE技术架构不仅接入了“大模型”,还接入了很多十亿甚至更小参数的专家模型,这使得整个系统更加智能。CoE架构在实现“让最强的模型回答最难的问题”的同时,还能在回答简单问题时调用更精准的“小模型”,在获得高质量回答的同时,节约推理资源、提升响应速度。

  业内人士表示,拥有了底层技术创新的情况下,国内在做应用和产品层面的优势更大。一方面,360通过CoE技术架构,构建了国内首个大模型竞技平台——模型竞技场(bot.360.com),目前已经入驻360 AI浏览器,成为国内大模型领域的基础设施。在多模型协作模式下,用户可从16家国内主流大模型厂商的54款大模型中任意选择3款大模型,进行多模型协作,以此达成比单个大模型回答问题好得多的效果。另一方面,CoE还成为了支撑360 AI搜索的底层技术架构。

郑重声明:用户在财富号/股吧/博客等社区发表的所有信息(包括但不限于文字、视频、音频、数据及图表)仅代表个人观点,与本网站立场无关,不对您构成任何投资建议,据此操作风险自担。请勿相信代客理财、免费荐股和炒股培训等宣传内容,远离非法证券活动。请勿添加发言用户的手机号码、公众号、微博、微信及QQ等信息,谨防上当受骗!
作者:您目前是匿名发表   登录 | 5秒注册 作者:,欢迎留言 退出发表新主题
郑重声明:用户在社区发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。用户应基于自己的独立判断,自行决定证券投资并承担相应风险。《东方财富社区管理规定》

扫一扫下载APP

扫一扫下载APP
信息网络传播视听节目许可证:0908328号 经营证券期货业务许可证编号:913101046312860336 违法和不良信息举报:021-34289898 举报邮箱:jubao@eastmoney.com
沪ICP证:沪B2-20070217 网站备案号:沪ICP备05006054号-11 沪公网安备 31010402000120号 版权所有:东方财富网 意见与建议:021-54509966/952500