大模型2024:先把价格打下去( 三 )


京东云推出vGPU池化方案,提供一站式GPU算力池化能力 , 结合算力的任意切分和按需分配,在同等GPU数量的前提下,实现了数倍业务量扩展和资源共享,降低了硬件采购成本,使用更少的AI芯片支撑了更多的训练和推理任务,GPU利用率最高提升70%,大幅降低大模型推理成本 。

大模型2024:先把价格打下去

文章插图
阿里云通义大模型则聚焦于规模定理 , 基于小模型数据分布、规则和配比,研究大规模参数下如何提升模型能力,并通过对底层集群的优化,将模型训练效率提升了30%,训练稳定性提升了15% 。
百度升级了异构计算平台“百舸”,将训练和推理场景的吞吐量提高了30%-60%,意味着原先需要用100天的训练才能达成的效果,现在只需40-70天,节约时间等于间接省钱 。同时,在英伟达之外 , 百度的“千帆”大模型平台还兼容昆仑芯、昇腾、海光DCU、英特尔等国内外其他主流AI芯片,通过组合选项完成低成本的算力适配 。
正所谓“早买早享受,晚买有折扣 。”当前,Mistral AI以性价比暂时领先,但也有不少开发者还在等待OpenAI大模型产品的升级降价 。毕竟,正是OpenAI自己在GPT-4发布后不到8个月就推出了更强也更便宜的GPT-4 Turbo 。  

【大模型2024:先把价格打下去】


推荐阅读