AI芯天下丨热点丨OpenAI转向谷歌TPU芯片AI基础设施格局的转折点
时间:2025-07-09 08:03来源:未知 作者:未知 点击:

  OpenAI首次正式采用非英伟达芯片,此举或将推动谷歌TPU成为英伟达GPU更具成本效益的替代方案。

  具体使用方式方面,据TheInformation报道,OpenAI系通过谷歌云平台租用TPU。

  然而,有谷歌云员工表示,鉴于OpenAI与谷歌在AI领域的竞争关系,谷歌不会向其提供最强大的TPU型号。

  OpenAI用户规模增长迅猛(近日宣布已拥有300万付费企业用户),正面临严重的GPU短缺压力。

  另一潜在动因或在于降低对微软的依赖程度,这也是OpenAI近期持续努力的方向。双方近期关系亦显紧张。

  OpenAI 发言人于周日向媒体表示,公司当前确实在测试谷歌的张量处理单元(TPU),但强调[此仅为早期尝试],目前并无大规模部署该芯片的计划。

  然而,从测试到实际落地应用存在显着差距:这不仅涉及硬件本身的适配,还包括软件框架、编译链乃至整个部署架构的重建,此类工程往往需要耗时数月乃至一年以上。

  尽管此次[芯片相关争议]表面看似乌龙事件,但深入分析即可发现:OpenAI的意图并非转向谷歌,而是向英伟达施加压力。

  OpenAI当前最核心的需求十分现实降低模型推理成本、掌握算力议价权。

  然而在实际推理阶段,OpenAI近年来已大量采购CoreWeave等第三方GPU云服务商的资源,显示出其[云平台分散化]的趋势。

  根据摩根士丹利的芯片模型预测,2027年及2028年,预计将分别有2430亿美元和2580亿美元投入于英伟达GPU,而同期TPU支出预计仅为约210亿美元和240亿美元(其中大部分为谷歌内部使用)。

  随着开发者对TPU技术的熟悉度提升,谷歌体系外公司对TPU的进一步采用,可能成为谷歌云业务的额外增长驱动力。

  OpenAI业务呈高速增长态势。据路透社报道,截至2025年6月,其年化收入已突破100亿美元。

  因此,OpenAI正寻求算力来源多元化,为其5000亿美元的Stargate项目,与CoreWeave、甲骨文及软银展开合作,并新增谷歌云作为供应商。

  据悉,英伟达旗舰芯片B200拥有2080亿晶体管数量与192GB HBM3E内存容量,提供8TB/s的内存带宽。

  以苹果构建Apple Foundation Model模型时采购的谷歌TPU v5p为例,虽双方未披露订单详情,业界普遍认为其单价或在数千美元级别。

  此举打破了AI芯片市场长期由英伟达主导的事实标准,同时为其他供应商的商业化开辟了结构性空间。

  OpenAI长期作为英伟达H100的最大采购方之一,其模型训练、API推理及企业部署服务,几乎完全运行于英伟达GPU之上。

  推理正逐渐成为主要的成本中心。训练作为一种集中发生的投入,而推理则构成一项持续发生的运营成本。

  谷歌提供的统一镜像管理、弹性扩容及负载均衡接口,可直接集成至OpenAI的API层服务调度体系中。

  对于OpenAI这类拥有数十条独立产品线与模型分支的组织而言,此类[可用即调用]的架构选择在效率层面意义重大。

  居于前列的大型模型开发商正积极寻求英伟达GPU之外的替代方案,推动基础设施多元化发展,并致力于采纳以TPU为代表的专用AI芯片架构。

  部分资料参考:《OpenAI要抛弃英伟达?紧急辟谣:转向谷歌TPU是乌龙,根本无部署计划》,中昊芯英科技:《OpenAI转向谷歌TPU,解耦英伟达开启AI专用算力芯片时代》,Andy730:《谷歌TPU战略布局:OpenAI合作重塑AI芯片格局》,复利猫的慢思考:《TPUvsGPU:OpenAI首次使用谷歌TPU推理》

(责任编辑:)

关键词:

随机推荐

联系我们 -