百度All in的大模型何时能赚钱?


百度All in的大模型何时能赚钱?

文章插图
奇偶派(jioupAI)原创
作者 |叶子
在《跨越鸿沟》这本被誉为“科技企业营销圣经”的书中,杰弗里·摩尔这样写道:“高科技产品面世过程中,最危险、最关键的一点 , 就是由少数有远见者所主宰的早期市场 , 向实用主义者占支配地位的主流市场过渡 。”
在当下国内众多的行业之中,生成式人工智能(AIGC)作为半年内迅速发展、正在检验商业化落地的行业,正面临着这个关键的过渡阶段 。
而在该阶段里 , 互联网企业、AI企业、小型创投企业纷纷投身于这场波澜壮阔的生成式人工智能市场的竞争大潮中,它们依靠各自拥有的用户资源、生态优势与奇思妙想,为众多的用户提供更加个性化、智能化和便利化的产品和服务 。
但是,大模型作为动辄投入数十亿的项目,故事势必要从巨头们讲起,而作为这场大模型竞争中的主要玩家之一,率先发布文心一言的百度不可谓不是其中的领头羊 。基于过去数年在AI赛道中探索的实力与企业应用大模型的渠道,从通用大模型、行业大模型与应用生态构建等数个方面入手,而具体的打法从相关人士的发言中便可见一斑 。
百度智能云事业群总裁沈抖表示,企业应用大模型主要有三种方式 。第一种是构建基础大模型,只有少数企业会自建大模型,因为训练大模型的成本和技术壁垒都非常高 。
第二种是建立行业大模型,通常是了解行业的企业,结合自身掌握的行业数据,用基础大模型精调出更贴合实际场景的行业大模型 。“从零建设行业大模型是伪命题,能建设一个好的行业大模型的基础是有一个强大的基础大模型 , 在此之上再进行迭代 。”
第三种是在基础大模型和行业大模型之上 , 开发AI应用 。这类企业其实是大多数,他们要思考的是:如何在这个大模型之上做好提示词工程,解决特定应用场景的问题 。如何从模型效果、迭代速度、工具链这三大方面去选择一个好的大模型 。
而百度也确实是在大模型底座、行业大模型与AI原生应用三条赛道上一齐发力,那么,百度文心大模型在这三大层面中做了哪些努力,推出了哪些平台与打法,又有哪些“意难平”?在技术落地生产力的过程中 , 最重要一环之一的商业化又有哪些潜在问题呢?
1
先发证明模型底座实力
但优势难转为胜势
作为“大数据+大算力+强算法”结合的产物,大模型应用效果的基础是高质量的训练数据,这对业务领域训练数据的准备,尤其是认知场景训练数据的准备提出了更高的要求 。高质量的训练数据加之高昂的算力成本,使得通用大模型天然成为了大公司之间的游戏 。
在训练数据规模上,据IT之家报道,于10月17日最新发布的文心大模型4.0参数规模为目前所有公开发布参数最大的大语言模型,预计可能突破万亿级别 。
如此大参数量的模型,对算力的要求自然也更进一步 , 据媒体报道 , 文心4.0是在万卡AI集群上训练出来的,应该也为国内首次使用万卡规模集群进行训练的大语言模型 。而万卡集群,国内目前只有华为、阿里透露已建成万卡AI集群,但我们都没看到基于它推出的具体模型 。
在海量的训练数据与充足的万卡并行算力外,在从文心大模型1.0诞生迭代至今的近5年间,百度在IT技术的技术栈发生根本性变化的过程中 , 也从过去“芯片—操作系统—应用”三层架构,重建成为了“芯片-框架-模型-应用”四层架构,在每一层之间的严格要求下,完成端到端的额优化,为深度学习与大模型的发展打下了坚实的基?。?晌?竽P湍芰β涞夭?祷?罨?〉闹悄艿鬃?。
百度All in的大模型何时能赚钱?

文章插图
截止目前,百度是全球为数不多、在这四层进行全栈布局的人工智能公司,无论是高端芯片昆仑芯,是飞桨深度学习框架,还是文心预训练大模型,各个层面都有领先业界的自研技术 。而芯片、框架、大模型和终端应用场景也形成了高效的反馈闭环,帮助大模型不断调优迭代 , 进而升级用户体验 。
而在今年百度2023世界大会中,李彦宏表示文心大模型4.0 , 实现了基础模型的全面升级,在理解、生成、逻辑和记忆能力上都有着明显提升,他还称综合水平“与GPT-4相比毫不逊色” 。


推荐阅读