LLM 大模型最新趋势总结

引言  
又几个月过去了 , 大模型(LLM)行业有什么新进展、新趋势?

LLM 大模型最新趋势总结

文章插图
(0)总结——太长不看
关键结论:
开源社区模型不具备真正智能 , 更好的小模型来自大模型的 Scale Down
GPT-4模型信息:采用MoE架构 , 16个experts , 800b参数
如何减少幻觉 hallucination?scaling/retrieval/reward model
指令遵循的开源小模型被过度炒作 , 已经到达瓶颈 , 突破方向是更强的 Base Model 和更进一步的反馈数据
用不了多久 , 大家会把80%算力从 TrAIning 转向 Serving
预计未来模型的迭代节奏会很像手机系统:1-2 年更新一次大版本 , 中间有无数次小版本迭代;
中期来看 , RLHF 不应该是 Alignment 的唯一手段 ,  Direct Preference Optimization 和 Stable Alignment 是新路径
长期来看 , 小版本迭代的角度:隐私/权限的增强、更多的图片/文件/声音格式的 Embedding
LLM 的 Context Window 就像电脑内存 , 向量数据库是 LLM 的硬盘
Robot Learning 已成为学界主流研究路线
(1)上一期报告回顾
3个月前 , 文章(The Age of AI:拾象大模型及OpenAI投资思考)介绍了拾象投研机构对LLM的调研报告 , 内容涉及:
① 什么是大模型?LLM是新一代通用计算机 , windows 95 级别的计算机平台;
② 从基础模型到 Killer Apps , 价值链如何被分配?OpenAI、Anthropic 为代表的基础模型能力边界不断拓宽 , 占据价值链中最主要的环节;
③ 什么是 AI Native 应用?AI Native 应用不是语言模型的嵌套 , 而是对现有软件服务的重构;
④ LLM 浪潮下 , 科技巨头们是如何和 LLM 做结合的?顶级CEO 们对于 LLM 尚未形成共识 , 未来 6 个月是重要的窗口期;
⑤ OpenAI 为什么能够成为 LLM 最强王者?OpenAI 组织活力来自自上而下对 AGI 的坚定信仰、极高的人才密度 , 以及自下而上推动创新的实验机制 。
具体来说 , 对于LLM的几个关键判断:
① LLM是计算机 , 而OpenAI的GPT系列将成为Windows 95级别的计算机平台
LLM 大模型最新趋势总结

文章插图
② LLM基础模型拿走价值链的大头(60%) , 其次是AI Infra基础架构、Killer Apps , 各占20% 。所以 , 大家纷纷发力训练大模型 。
LLM 大模型最新趋势总结

文章插图
③ 从Mobile到LLM:大模型真正理解语言 , 数据组织效率和能力继续加强 。人机交互方式开始迈入新时代(CUI对话交互)
LLM 大模型最新趋势总结

文章插图
④ LLM的边界:目前只是空有大脑 , 身体和感官还在逐步成长 。
LLM 大模型最新趋势总结

文章插图
⑤ 下一步:给大脑装上感官(多模态)以及手脚(插件/AutoGPT之类)
LLM 大模型最新趋势总结

文章插图
另外 , LLM之上的应用会是什么样?全方位的重构:交互、数据信息、服务以及反馈机制 , 一个可行的路子是AI Native软件开发——把已有应用按照LLM的能力图谱重新设计一遍 , 对话式交互(CUI)走到前台 。
LLM 大模型最新趋势总结

文章插图
相对于应用层 , 未来3-5年 , AI-Infra的确定性机会更多 , 体现在模型层和工具层的各类应用 。
LLM 大模型最新趋势总结

文章插图
(2)最新报告:State of LLM
6月29日 , 时隔3个月 , 拾象投研团队再次发布LLM调研报告:State of LLM
精简总结如下(原始报告获取方式见尾部附录)
LLM 大模型最新趋势总结

文章插图
继续看好LLM , 如火如荼、大动干戈的“千模大赛”到底在争什么?下一代超级入口!
目前 , OpenAI、Anthropic和google处于第一梯队 。
LLM 大模型最新趋势总结

文章插图
报告甚至将LLM训练复杂度比作“造原子弹” , 每次发布堪称“登月” , 有些夸张 , 但LLM训练确实不容易 。


推荐阅读