金融投资报评论员刘柯
2022年,以GPT为代表的AIGC横空出世,生成式人工智能开始成为科技界最时髦的名词,进而带红了OpenAI与英伟达等明星公司。
经过近两年的迭代与发展,AlGC经历了花样繁多的“百模大战”,你方唱罢我登场。但各种大模型始终缺乏落地的具体场景应用,市场关注最多的就是“你问我答”、文生图或文生视频,穿插其间的还有各种大模型的“内卷式”降价。去年底,互联网大厂阿里云宣布通义千问视觉理解模型全线降价超80%,其中Qwen-VL-Plus直降81%,输入价格仅为0.0015元/千tokens,创下全网最低价格;更高性能的Qwen-VL-Max降至0.003元/千tokens,降幅高达85%。按照最新价格,1元钱可最多处理约600张720P图片,或1700张480P图片。
也许有人会认为,伴随着OpenAI越来越难以引起关注度的产品更新,以及各个大模型因为同质化现象而不断降价,AIGC是不是走进了死胡同?
其实,大模型仅仅是一个工具,也就是终端可以利用的训练好了的模块,切入千行万业的应用才是AIGC的星辰大海。
2025年1月1日,百度创始人李彦宏表示:“虽然超级应用尚未出现,但AI的实际渗透率已经不低,并且将在2025年继续井喷式增长。”
现在还没法预测究竟哪一款AI应用能成为现象级爆款,但可以确定的是,AIGC的热潮将从数据训练走向应用推理。大模型不断降价让昔日高高在上的AIGC可以嵌入千行万业,也必将诞生更多基于这些大模型的应用。应用才是AI的终端王者,也是AIGC能从实验室训练或者互联网大厂的服务器计算走向人们生活的一种跨越。还有一点可以确定的是,无论是训练大模型还是AI应用推理,对AI算力的需求依旧会继续增长。
与“百模大战”时有所不同,终端应用产生的AI算力需求将呈现碎片化和去中心化的特点,更加体现出分布式的格局。在各互联网大厂力推各自大模型的时候,大多都是自建算力数据中心并进行闭环式训练。当大模型当作产品出售以后,其他终端利用这些大模型进行新的AI应用推理,这些散落在社会各个角落的终端客户,无论是B端还是C端,不可能将算力需求全部集中于一两个互联网大厂的网络之内,这个阶段更倾向于使用中立的公有云算力。
去年下半年,IDC发布了《全球软件和公有云服务支出指南》,预计2024年全球公有云服务支出将达到8050亿美元,到2028年将翻一番,预计2024年至2028年,公有云市场将实现19.4%的年复合增长率。这其实也从另一个侧面反映了AI应用市场激活以后,以公有云为核心的云计算市场的增长潜能。因为AI应用势必激发全社会对于AI算力的需求,而这些需求又呈现分布式的特点,特别是很多中小企业无法自建算力数据中心,而又出于对安全性的考虑,他们更倾向于选择中立性的公有云。比如去年火爆一时的智谱大模型,其底层算力就是由中立的公有云企业优刻得提供的。
AI应用带来的市场需求,也让很多传统云计算企业开始自我革新以适应这种市场需求。很多云计算企业将业务重心转向场景解决问题的方向,将自己手中的CPU、NPU、DPU、存储和内存等资源全部互联和池化,从单体算力向矩阵算力演进。
也就是说,在未来AI应用快速发展的阶段,智能化的公有云企业甚至可以为客户提供一整套涵盖算力基础设施建设、训练流程优化、智算集群调度、高性能网络与存储等在内的创新技术解决方案。这个时候,终端客户只需要利用配套的大模型,在这些中立的公有云企业上进行推理计算,就可以得到自己满意的应用场景。