谷歌今天宣布向其公有云平台上增加ensor Processing Units,这是一款专门为人工智能工作负载提供动力的内部设计的芯片系列。
一个TPU(如图所示)由四个专用集成电路组成,配有64GB的“超高带宽”内存。这一组合单元可以提供高达180 teraflops的性能。今年晚些时候,谷歌计划增加一个集群选项,让云客户将多个TPU聚合成一个“Pod”,速度达到petaflop的范围(是teraflop的1000倍)。
在今天的公告中谷歌并没有分享更多的性能细节。不过,去年谷歌的两位顶级工程师写的一篇博客文章显示,当时内部使用的Pod包括64个TPU,总吞吐为11.5 petaflops。相比之下,世界上功能最强大的超级计算机可以达到93 petaflops,但值得注意的是,谷歌很可能没有使用相同的基准测试方法来测量TPU的速度。
无论哪种方式,这些芯片都是Google云平台的一个重要补充。当谷歌于去年4月首次向全世界展示TPU规格的时候,它透露该芯片至少可以运行某些机器学习工作负载,比现有的芯片快15至30倍。这就包括特别适合用于机器学习模型的GPU。GPU的主要制造商包括Nvidia和AMD公司,这两家公司仍然是当今大多数项目的首选。
因此,谷歌的云客户应该能够更快速地培训和运行他们的人工智能软件。谷歌表示,一个TPU可用于在一天之内实施主流ResNet-50图像分类模型,达到可接受的精确度水平。
谷歌已经创建了几个预先优化的神经网络包,让客户可以将其运行在TPU上,其中包括一个ResNet-50版本,以及用于机器翻译、语言建模和识别图像内物体的模型。企业客户也可以使用谷歌的开源TensorFlow机器学习引擎创建自己的人工智能工作负载。
喜欢使用传统图形卡进行人工智能项目的客户,今天也看到了一项新的功能。谷歌为其Kubernetes Engine服务添加了GPU支持,以允许将机器学习模型打包到软件容器中。后一种技术提供了一个轻量级抽象层,使开发人员能够更轻松地推出更新并跨环境迁移应用。
这个新的TPU价格为每小时每单元6.50美元,而通过Kubernetes Engine租赁的GPU将按谷歌现有的每种支持芯片型号收费。
这种芯片对于各种人工智能任务、特别是对于一些计算机工作负载而言的就绪情况,仍然不明确。Moor Insights&Strategy总裁兼首席分析师Patrick Moorhead表示:“TPU是一个很好的试水方式,但并一定适合于运行生产工作负载。GPU是进行训练的最佳方式。锁定到TPU,意味着被GCP和TensorFlow锁定。”
而且谷歌也不是唯一追求自主开发人工智能芯片的公司。芯片巨头英特尔公司一直在推销其最新用于人工智能工作负载的CPU,以及称为FPGA的定制芯片。
据The Information报道称,亚马逊公司正在开发自己的人工智能芯片,该芯片可以帮助其Echo智能音箱和其他使用其Alexa数字助理的硬件在设备上执行更多处理任务,以便它可以比调用云的响应速度更快。
- 蜜度索骥:以跨模态检索技术助力“企宣”向上生长
- 瑞萨电子闪耀第七届进博会:以科技之光引领智能未来
- Imagination DXS GPU 已获得ASIL-B官方认证
- 国产GPU独角兽摩尔线程即将启动IPO
- 智能无处不在:安谋科技“周易”NPU开启端侧AI新时代
- 从富士通到RAMXEED,以全新一代FeRAM迎接边缘智能高可靠性无延迟数据存储需求
- 英特尔第三季度营收132.84亿美元 同比转盈为亏
- Gartner:2024年全球半导体收入将增长19%至6300亿美元
- 安森美公布2024年第三季度业绩:收入和盈利超预期,自由现金流环比增长41%
- ASML首席执行官质疑美国芯片封锁:这真的关乎国家安全吗?
- 高通在风光开大会,Arm却绝交断后路?
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。