一个GPT的幽灵在Gemini上空徘徊( 二 )


我真的不是要怪Google,我更期待Google证明自己 。我们这群在1990年代末接触互联网的人,对Google是有一些很微妙的特殊感情的 。而Google也必须证明自己的AI First战略能结出真正的果实 。只是GPT的幽灵在Google徘徊,是一个事实 。谁都可以试图摆脱这个幽灵,唯独Google不行,这是它无可选择的对手 。
其实Google今天围绕Gemini所做的一切 , 某种程度上能让我们中国的大语言模型开发者心有共鸣:大家的头顶上都徘徊着GPT的幽灵,这就让大家都试图通过某些努力,证明自己在某些方面比GPT做得更好 。
Google在Gemini基准测试中采用了一切小“技巧”(采用更复杂的思维链提示和结果选优 , 而测试GPT只用5次反馈且无提示词)获得了碾压GPT的成绩,类似的测试方法我们是不是听起来很熟悉?中国的大语言模型研发者有没有一种老乡见到了老乡的戚戚然的感觉?
我们经常喜欢将智谱、百度和Minimax的努力与OpenAI做对比 , 但换一个思路,其实大语言模型的较量,何尝不是百度、智谱、Minimax、Google、Meta、Anthropic和Grox们一起在围攻OpenAI的光明顶?从这个意义上,中国大模型和美国除OpenAI之外的大模型在一个阵营一个战壕里 , 是报团也是互相学习的对象 。大模型的百草我们这些神农尝多了,就发现我们中国的大模型不是比美国的大模型差,只是不如ChatGPT , 就这样 。
Google这次训练Gemini另一个值得圈点的地方,是它完全采用了自家的芯片集群——TPU进行的训练 。Google官宣TPUs v4和 v5e在通过AI优化过的基础设施上实现了这一大规模训练,可扩展性强且推理最高效 。这恐怕是我们听说的一款性能还算强劲的大语言模型 , 不依赖英伟达的算力和软硬件架构而修成正果的 。当然人家TPU是自产自销的,但我看到了“替代英伟达”这件事在大模型训练实操上的可能性和可行性 。这对中国的大语言模型训练意味着什么 , 不言自明 。
此外,Gemini Nano也是一个亮点,这是一款尺寸最小的Gemini模型,优先用于G家自产的Pixel 8手机上 。“端侧大模型”是近期的一个话题 , 其实它更接近“小模型” 。中国智能手机厂商OPPO、vivo和小米近期都有发布自己的端侧模型,联想则从AI PC的维度也切进了事实上的同一个领域 。这次Google加入了这个阵营,应该是一个信号,这件事值得努力,有的做 。
其实很神奇 。从Google这次Gemini模型的发布,我看到了Google与一众我们熟悉的中国大语言模型开发者同样的境遇和努力:那种隐忍、不甘和较量 , 那种偶尔展露的在一些基准测试关键指标上跟OpenAI较劲的小手段和小心思,那些试图建立自己生态的步步为营,那种试图摆脱英伟达算力的尝试,以及基于移动优势在端侧模型的努力……面对OpenAI,大家都是一样的 。
一个GPT的幽灵 , 在Gemini的上空徘徊,也在我们每一个中国大语言模型的上空徘徊 。




推荐阅读