据消息人士称 ,谷歌正在推进一项新计划,使其人工智能(AI)芯片在运行 PyTorch(全球使用最广泛的AI软件框架)方面表现更佳,此举旨在挑战英伟达长期以来在AI芯片领域的主导地位。
谷歌目标是让——其自研芯片张量处理单元(TPU)——成为英伟达GPU的可运行替代方案 ,但仅有硬件并不足以推动广泛采用 。
知情人士称,该计划在谷歌公司内部被称为“TorchTPU ”,旨在消除阻碍TPU芯片普及的一项关键障碍 ,即让已经基于PyTorch软件构建技术基础设施的客户,能够在TPU上获得完全兼容、对开发者友好的体验。
据悉,谷歌正在考虑将部分软件开源,以加快客户采用速度 ,该公司为TorchTPU项目投入了更多组织资源 、战略重视度。
如果谷歌的TorchTPU项目取得成功,将有望显著降低企业从英伟达GPU转向其他方案的切换成本 。
TPU普及面临障碍
尽管越来越多的企业开始尝试采用谷歌的TPU,但却在软件层面遇到障碍。
PyTorch是一个由Meta大力支持的开源项目 ,是AI模型开发者最常用的工具之一。在硅谷,很少有开发者会亲自编写英伟达、AMD或谷歌芯片实际执行的每一行代码 。
相反,开发者依赖 PyTorch 等工具——这些工具由预先编写好的代码库和框架组成 ,能够自动化AI软件开发中的许多常见任务。
PyTorch最初发布于2016年,其发展历程与英伟达的CUDA紧密相连。一些华尔街分析师认为,CUDA是英伟达抵御竞争对手的最强护城河。
多年来 ,英伟达工程师一直致力于确保基于PyTorch开发的软件在其芯片上运行得尽可能快且高效 。
相比之下,谷歌内部开发者团队长期采用另一套名为Jax的代码框架,其TPU芯片则通过名为XLA的工具来高效执行这些代码。谷歌自身的AI软件栈和性能优化大多围绕Jax构建 ,这使得谷歌芯片的使用方式与客户需求之间存在显著差异。
知情人士称,企业客户一直向谷歌反映,TPU在AI工作负载上的采用难度较高,因为过去它们往往要求开发者从大多数人已在使用的PyTorch ,转而切换到谷歌内部更偏好的机器学习框架Jax 。
与Meta合作
知情人士还表示,为加快开发进度,谷歌正在与PyTorch的创建者和主要维护方Meta紧密合作。两家科技巨头还在讨论相关交易 ,让Meta获得更多TPU资源。
早期面向Meta的服务采用谷歌托管模式,即Meta等客户安装谷歌设计的芯片来运行谷歌软件和模型,由谷歌提供运维支持 。
相关人士称 ,Meta在战略上有动力参与让TPU更易运行的软件开发,以降低推理成本,并让自身AI基础设施逐步摆脱对英伟达GPU的依赖 ,从而增强谈判筹码。
(文章来源:财联社)
全国排名前十配资公司_在线配资_配资开户_股票配资网站提示:文章来自网络,不代表本站观点。
记者|赵阳戈年初,证监会就修改《证券发行与承销管理办法》部分条款向社会公开征求意见,市场也将注意力投向了...
记者王珍中国国际经济交流中心副理事长、国务院发展研究中心原副主任王一鸣周一在“中国发展高层论坛2025...
记者辛圆3月25日,博鳌亚洲论坛旗舰报告《亚洲经济前景及一体化进程2025年度报告》(以下简称《报告》...
国海富兰克林基金国富深化价值基金经理刘晓日前发表了对 2025 年市场的展望。刘晓指出,国内经济正处于复苏通道,市场大幅...
若审计结果最终确认这一数据,*ST富润(600070.SH)或将成为2025年首家因财务指标触发退市的A股公司。...