tiknovel.com tiknovel

AI

当前位置:首页 > 技术圈 > AI

OpenAI 计划自研 AI 芯片,以减少对英伟达的依赖

OpenAI 计划自研 AI 芯片,以减少对英伟达的依赖

据路透社报道,OpenAI 正在与 博通(Broadcom)合作开发其 首款定制 AI 推理芯片,旨在处理其大规模的 AI 工作负载,特别是推理任务。

为此,OpenAI 已经组建了一支约 20 人的研发团队,包括曾参与谷歌 Tensor 处理器项目的首席工程师在内。

消息称博通将会帮助 OpenAI 进行芯片设计,并确保由 台积电(TSMC)进行制造,预计 2026 年开始生产。

OpenAI 将自研 AI 芯片(图源:cnBeta)

关注 AI 第一新媒体,率先获取 AI 前沿资讯和洞察

为了实现芯片供应的多元化,OpenAI 此前计划建立芯片制作代工厂。但由于成本高昂,并且构建代工厂网络需要大量时间,OpenAI 已经搁置了这一计划,转而专注于 内部芯片设计

OpenAI 这一通过「 定制芯片设计来管理成本和访问 AI 服务器硬件」的战略意味着其走上了 Meta 和 Google 等科技公司的老路,而后者作为 OpenAI 的竞争对手,已经经历了几代人的努力。

并且,市面上不乏成熟且广泛部署应用的 AI 芯片,如 Google 推出的「 TPU」、微软的「 Maia 100」等等。

也就是说,OpenAI 需要更多的资金才能弥补这些差距,登上牌桌。

微软推出的 AI 芯片「Maia 100」(图源:techmonitor)

除了满足不断增长的基础设施需求,减少训练和运行成本以外,「 减少对英伟达(NVIDIA)的依赖」也是 OpenAI 的「小算盘」之一。

OpenAI 的 CEO 奥特曼(Altman)指出,之所以要「获得更多芯片」,是因为两个问题:为 OpenAI 软件提供动力的先进处理器的短缺,以及为其工作和产品提供动力的硬件运行所需的「令人眼花缭乱」的成本。

他还曾公开抱怨市场资源匮乏,而 NVIDIA 主导并控制着最适合运行 AI 应用的芯片全球 80% 以上的市场。

作为英伟达图形处理单元(GPU)的最大买家之一,OpenAI 此前几乎完全依赖 NVIDIA GPU 进行训练。2020 年以来,OpenAI 在微软建造的大型超级计算机上开发了其生成式人工智能技术,这台计算机使用了 10000 个 NVIDIA GPU。

NVIDIA H100 GPU(图源:NVIDIA)

但由于芯片短缺和供应延迟,以及训练成本高昂的问题,OpenAI 不得不开始探索替代方案。他们 计划通过微软的 Azure 云平台使用 AMD 芯片进行模型训练。

值得一提的是,AMD 在去年推出了 MI300 AI 芯片,致使其数据中心业务在一年内翻了一番。种种迹象表明,AMD 正在追赶市场领导者 NVIDIA。

AMD MI300 芯片(图源:AMD)

此外,消息人士称 OpenAI 仍在决定是否为其芯片设计开发或收购其他元件,并可能会聘请更多合作伙伴。

尽管「 不惜一切代价构建 AGI(通用人工智能)」的 OpenAI 和号称「 下一个英伟达」的博通之间和合作很可能引起英伟达的不满,但 OpenAI 表示「希望与仍致力于合作的芯片制造商保持良好的关系,特别是在使用其新一代 Blackwell 芯片方面」。

对此,英伟达暂时不予置评。

唯一的回应是市场。合作消息一出,博通的股价应声大涨,AMD 也延续了早盘涨幅。

文|范津瑞


评论排行榜