OpenAI突袭谷歌TPU芯片人才,奥特曼亲自下手,准备从微软另起炉灶?_tiknovel-最新最全的nft,web3,AI技术资讯技术社区

OpenAI突袭谷歌TPU芯片人才,奥特曼亲自下手,准备从微软另起炉灶?

2024-06-04 13:59:34  浏览:343  作者:管理员
OpenAI突袭谷歌TPU芯片人才,奥特曼亲自下手,准备从微软另起炉灶?

OpenAI从来没有掩藏其芯片和基础设施野心,它一度被吹到了7万亿美元。但之前一直停留在各种讨论上,江湖上传闻也很多。

这一次,他们要玩真的了。OpenAI准备构建性能/总拥有成本(TCO)最优的机器学习基础设施。

OpenAI对谷歌TPU芯片的顶尖人才开始了大胆的偷猎行动,据半导体博客Semianalysis, 其半导体团队人数迅速从几个人增加到两位数。几乎所有被挖走的人,要么现在 Google TPU 工作,要么曾在 Google TPU 工作过。

TPU的前员工大多在初创公司工作,试图以更创新/激进的方式解决 AI 扩展的最大障碍。如加速芯片和推理引擎独角兽公司Groq的创始人兼CEO Jonathan Ross,曾在谷歌参与设计并实现了第一代TPU芯片。

OpenAI对顶尖TPU人才有各种诱惑:

首先,加入OpenAI,就有机会参与构建人类有史以来最宏大的计算机系统,涉及许多机器学习系统、扩展和软硬件协同设计挑战,事业心强的人会对此心向往之。OpenAI的算力雄心超过了任何竞争对手,它要构建百万加速器级的系统,其规模比训练GPT-4的系统大了数个数量级。相比之下,谷歌最新的两代TPUv5 和TPUv6(Trillium) 在系统设计和微架构上目标不够雄心勃勃,更像是迭代改进。

其次,团队成员可以与模型研究团队合作,障碍比在其他公司要少得多。尽管TPU团队和Google DeepMind团队合作相当密切,但业内普遍认为,在谷歌庞大的官僚体系中,这种合作的深度远不及OpenAI团队内部。

最后一个原因当然是金钱。OpenAI开出的基本工资很体面,但更重要的是,他们向高级工程师提供每年数百万美元的“股权”。这里所谓的股权,是指OpenAI内部自己制定的“利润分红单位”的股权结构。

OpenAI已经挖到了很棒的人才。据Semianalysis,在问到这些人的同行时,得到的评价往往是“他们是我合作过的最好的工程师之一”。Google已经采取了一些行动试图防御,但相对于OpenAI提供的诱人条件,力度显然不够。连奥特曼都亲自下手了。

实际上,Google TPU团队已经是报酬最高的半导体设计团队之一,工程师的平均收入远高于大多数半导体公司,如AMD、Intel、Qualcomm等。只有Nvidia在薪酬方面能与Google竞争,但都不及OpenAI。

OpenAI自己做芯片和基础设施也是迫不得已。他们目前处境尴尬,不能完全依赖微软的芯片,因为两者的关系已经紧张,微软正在认真制定自己的应对计划。

而且从长远来看,要想节约成本,OpenAI也无法从微软那里获得多少优惠,因为微软希望从“外部”租用其内部芯片中获利。OpenAI希望自己设计,以更接近制造成本获得自己的芯片和系统。最后,OpenAI对微软芯片的设计缺乏控制,因此这些芯片及其系统不太可能完全符合其需求。

OpenAI也不敢从英伟达或AMD这样的合作伙伴处挖角,因为那样会损害合作关系。Google TPU是唯一在超大规模系统上能从内部替代英伟达的芯片。亚马逊、Meta和微软团队仍然严重依赖英伟达的GPU,所以不必从那些尚未成功的团队挖人。没有别的选择,只能从自己的死敌Google TPU团队挖人。

初创芯片团队,失败率很高,新组建的芯片团队,困难重重。芯片只是第一个难关,还有系统、互连、数据管理、网络和规模、软件等一堆的挑战。假设OpenAI挖到了他们想要的人才,预计至少要到2027年底,才可能有一个完全自主设计的芯片以一定的量产进入市场。

也有一种可能,是OpenAI先强化基础设施团队,为其下一代大模型训练和部署做准备,如Sora和GPT-4o,甚至GPT-5。

运行人工智能软件的硬件基础设施对资本支出(Capex)和运营支出(Opex),以及随后对毛利率的影响,显著大于以往软件时代,其中开发成本相对较高。因此,优化人工智能基础设施,对于部署人工智能软件显得尤为重要。在基础设施方面具有优势的公司,也将在部署和扩展人工智能应用方面具有优势。

在这方面经验最丰富、最具优势的,无疑是谷歌。早在2006年,谷歌就开始推广建立人工智能专用基础设施的想法,2013年开始开发TPU芯片,2016年投入量产。在SOTA模型与基础设施之间的协同,谷歌做得最好。

自2016年以来,谷歌已经开发了8种不同的人工智能专用芯片:TPU、TPUv2、TPUv3、TPUv4i、TPUv4、TPUv5,TPUv5e和刚发布的TPUv6 (Trillium)。这些芯片主要由谷歌设计,同时在中端和后端与博通有不同程度的合作,均由台积电制造。自TPUv2以来,这些芯片还采用了三星和SK海力士的HBM内存。

谷歌具备在大规模部署人工智能时以低成本和高性能可靠运行的能力。谷歌在人工智能工作负载的性能/总拥有成本(perf/TCO)方面优于微软和亚马逊,这归功于谷歌从微架构到系统架构的整体方法。

谷歌介绍,在最近的谷歌I/O大会上推出的Trillium TPU,在每个芯片的峰值计算性能上,相比TPUv5e提升了4.7倍,使得下一代基础模型的训练速度更快,并能以更低的延迟和成本提供这些模型。能效提高了67%以上。Trillium TPU可以扩展到数百个节点,用每秒数个petabit的数据中心网络,连接成千上万数量级的芯片,形成建筑级的超级计算机。


评论区

共 0 条评论
  • 这篇文章还没有收到评论,赶紧来抢沙发吧~

【随机内容】

返回顶部