《财富》封面:全球爆红的ChatGPT是如何诞生的?( 五 )


成立一家营利性分支机构,使OpenAI能够吸收风险资本 。但OpenAI创建了一种非同寻常的融资结构,按照投资者的初始投资,以特定倍数规定投资者的回报上限 。而由硅谷精英组成的OpenAI非营利性董事会,将保留OpenAI知识产权的控制权(见侧边栏) 。有一位硅谷精英没有继续在董事会任职,他就是马斯克:2018年,马斯克离开OpenAI董事会,理由是他需要经营SpaceX,还有更重要的特斯拉(Tesla) 。
当时,微软CEO萨蒂亚·纳德拉迫切希望证明,在人工智能领域落后于竞争对手的微软,也能在人工智能技术的尖端领域扮演一定的角色 。微软曾经尝试聘请一位重量级的人工智能科学家,但未能成功 。微软还建立了规模庞大、成本高昂的专用芯片集群,以推进其在语言模型开发领域的进展 。这正是OpenAI迫切需要的超级计算力,当时该公司曾斥巨资进行收购 。OpenAI擅长的是实现各种炫酷的人工智能演示,而这正是希望证明微软人工智能实力的纳德拉所期待的 。阿尔特曼主动联系到纳德拉商谈合作,他曾多次飞往西雅图展示OpenAI的人工智能模型 。纳德拉最终签署了合作协议,并在2019年7月对外公布,使微软成为OpenAI技术商业化的“首选合作伙伴”,并在该人工智能初创公司初始投资10亿美元 。

《财富》封面:全球爆红的ChatGPT是如何诞生的?

文章插图
山姆·阿尔特曼与微软CEO萨蒂亚·纳德拉在位于华盛顿州雷德蒙德的微软总部合影 。图片来源:IAN C. BATES—THE NEW YORK TIMES/REDUX
虽然阿尔特曼从最开始就参与了OpenAI的创立,但他直到2019年5月OpenAI转型为营利性企业后不久才担任该公司CEO 。但该公司从一家研究实验室变成价值数十亿美元的现象级企业的过程,充分显示出阿尔特曼独特的融资能力,以及以产品为导向的经营理念,也凸显出这些商业本能与他对实现科学驱动的宏大想法的承诺之间的矛盾 。
作为OpenAI的领导人,从某种程度上来说,阿尔特曼就是硅谷的典型代表:年轻的白人男性;坚定专注;精通极客技术;热衷于效率和生产率最大化;致力于“改变世界”的工作狂 。﹝在2016年《纽约客》(New Yorker)的一篇文章中,他表示自己并没有阿斯伯格综合征,但他能理解为什么人们会认为他是阿斯伯格综合征患者 。﹞
阿尔特曼从斯坦福大学计算机科学专业肄业,参与创建了一家社交媒体公司Loopt,该公司的应用可以告知用户好友所在的位置 。该公司在2005年,成为Y Combinator的首批初创公司;虽然这家公司未能成功,但阿尔特曼出售该公司所得的收入,帮助他进入了风投界 。他创建了一家小型风险投资公司Hydrazine Capital,募资约2,100万美元,其中包括泰尔的资金 。后来Y Combinator的联合创始人保罗·格雷厄姆和利文斯顿聘请他接替格雷厄姆,负责运营YC 。
阿尔特曼是一位创业者,而不是科学家或人工智能研究人员,他为人所津津乐道的是极其擅长进行风投融资 。他坚信伟大的事业源于远大的志向和坚定不移的自信,他曾表示,希望通过开发所谓的深度科技领域,如核裂变和量子计算等,创造数万亿美元的经济价值 。这些领域虽然成功的机会渺茫,但有可能带来巨大回报 。阿尔特曼在Loopt的同事、资深科技投资者和初创公司顾问马克·雅各布斯坦表示:“山姆相信,他在自己从事的领域是最棒的 。我确信,他曾认为自己是办公室里最强的乒乓球高手,直到事实证明他是错误的 。”
据OpenAI的多位现任和前内部人士爆料,随着阿尔特曼掌管公司,公司开始转移业务重心 。曾经广泛的研发议题被精简,主要专注于自然语言处理领域 。萨茨科尔和阿尔特曼辩称这种转变的目的是在目前似乎最有可能实现通用人工智能的研发领域,最大程度增加投入 。但有前员工表示,在公司获得微软的初始投资后,重点开展大语言模型研究的内部压力显著增加,部分原因是这些模型可以迅速投入商业应用 。
有员工抱怨,OpenAI创立的目的是不受企业影响,但它很快就变成了科技界巨头的工具 。一位前员工表示:“公司所关注的重点更多地倾向于我们如何开发产品,而不是努力回答最有趣的问题 。”与本文的许多受访者一样,由于保密协议的约束,并且为了避免得罪与OpenAI有关的大人物,这名员工要求匿名 。
OpenAI也变得不再像以前那么开放 。该公司已经开始以担心其技术可能被滥用为由,收回此前做出的公开所有研究和将代码开源的承诺 。但据该公司的前员工表示,商业逻辑也是这些举措背后的原因之一 。OpenAI仅通过API提供其先进模型,保护了自己的知识产权和收入流 。OpenAI的另外一名前员工表示:“[阿尔特曼]和[布洛克曼]对‘人工智能安全’说过不少空话,但这些言论通常都只是商业考量的遮羞布,对实际的、合理的人工智能安全问题却视而不见 。”例如,这位前员工提到OpenAI曾因为担心被滥用而决定限制DALL-E 2的访问权限,但在Midjourney和Stability AI推出竞争产品后,公司快速推翻了这一决定 。(OpenAI表示,经过慎重的贝塔测试,其对安全系统充满了信心,之后才允许DALL-E 2的更大范围应用 。)据多位前员工爆料,公司在策略和文化上的转变,是导致十多名OpenAI研究人员和其他员工在2021年决定离开公司并成立研究实验室Anthropic的原因之一 。其中有多人曾从事人工智能安全研究 。


推荐阅读