大模型竞速2024:服务、应用、MaaS( 二 )


今年9月 , 大模型管理办法实施,聚光灯渐渐有从产业向用户转移的趋势 。直至以PC为首的消费电子赛道抱上了大模型前进的大腿,既是载体也是入口的智能设备,为大模型在C端的商业落地找到全新场景 。
自脱离混沌期起,国内大模型玩家就一同走上了产品化的道路 。但总体来看,早在3月末便提出的主线任务——MaaS还处于未发力的状态 。就像早期的行业大模型一般,赛道向外兜售的只是模型能力,而非模型服务 。
两字之差,指向大模型未能从技术价值转换为生态价值 。做个不算恰当的比喻 , 在AI高速公路上,各厂商只能象征性地建几所收费站 。
目前基础模型底座能力无人称王,大家同台竞技之下无人能站稳生态高位 。整体情况导向了两条2024年的大模型掘金之路——模型服务创新与应用 。
大厂创企 , 机会均等
逐鹿九州,是大模型厂商试图冲击生态位置的现状 。
【大模型竞速2024:服务、应用、MaaS】只是目前看来 , 追求模型能力已不是冲击高位的最优解,就像Sam·Altman所言:“扩大模型规模的收益在递减” 。
首当其冲的是愈发紧张的AI算力 , 据Omdia统计数据,今年Q3也就是英伟达发布GPU禁令前 , 腾讯、百度、阿里三家购入100系GPU的数量分别为50K、40K与25K,三者相加也不及微软和OpenAI其一 。
另一方面,OpenAI虽给出 Scaling Law(模型能力虽训练计算量提升的扩展定律)来解释大模型之“大”,但包括算力、人力、电力等在内的成本侧已无法容忍过多资源投入仅为百尺竿头更进一步,这一点基本已是业内共识 。
大力不能出奇迹,意味着大厂先发的算力、规模等优势正在逐渐消弭 。
从AI infra来看,规模效应递减的根源在于算力紧张与数据敝帚自珍 。但自技术层面,更多问题已经成为南墙:有毒内容与幻觉尚未有解法、AI前沿为商业公司把持后,开源程度日益递减等 。
参数量的顶级规格已经停留在万亿量级许久 , 玩家们开始思考如何通过巧思而非大力来推动AI行业向前 。
一条路径是“小而美”,曾有传言称GPT4是由十数个MOE小模型聚合而成,MOE也成为当下微软、谷歌等头部企业竞逐的新领域 。尤其是其和端侧设备的结合 , 新时代AI硬件有着足够的想象空间 。
大模型的软硬件生态从结合到协同的发展速度令人咂舌 。今年初,大模型语境中的模型训练还是万卡集群 , 年末时候,高通骁龙8 Gen3便展现了百亿参数模型的端侧运行能力 。国内已有OPPO、vivo、小米等手机厂商推出端侧模型,其服务与应用或将于2024年全面爆发 。
另一条路径是Long Context,模型能力突破艰难的情况下 , 让模型底座发挥作用的惯常范式是SFT,然而训练成本掣肘,长文本的Prompt有可能在向量数据库与检索增强生成的基础上彻底消磨精调的存在 。
回首创企,智谱AI、月之暗面、百川智能等创业独角兽也携AgentTuning(智能体增强)、Long Context、RAG等独特的模型服务创新崭露头角 。
创业公司的“破坏性创新”能力早在此前的商业史上便屡有验证 。由“生成式AI”代表未来这一基本共识发散开来的不同技术路线昭示着更多样化的AI未来图景 。
重塑开发生态
OpenAI塑造了2023年AI赛道关于大模型的共识,追赶的旋律就此开始谱写 。此后的GPT4以及GPT4V的出现更让人深感大山似乎不可逾越 。
但近来发生的两件事情,终归给到国内玩家们希望 。
先有《The Verge》报道字节跳动因使用ChatGPT的API以训练自家大模型,因而遭OpenAI予以“封号”处理;后有谷歌最新发布的Gemini-Pro承认在中文领域训练中使用了百度文心一言的数据 。
不出意外,重复造轮子的基础模型之争于此踩了一下刹车,而数据集的价值再次被放大 。随着推特、Reddit 等移动平台关闭免费的API接入点 , 在不远的未来,或许通过数据采集器搜集平台数据用于AI训练的 Pretrain 模式将彻底成为历史 。
进一步说,字节套壳GPT亦或是谷歌套壳文心一言,本质上是模型架构的趋同与数据价值的跃升 。那么中文高质量数据实际上也是国内大模型的护城河 。
在此基础上,我们更不需要担心模型层会落后于海外过多 。反而是在应用层面 , 百花齐放才是AI时代应有的面貌 。如此来看,李彦宏一直反复唠叨,“我们不需要这么多基础大模型 , 我们需要更多应用”的说法有其合理性 。


推荐阅读