Graphcore发布两款大型IPU产品 支持超大规模AI计算
10月22日消息,Graphcore今日宣布发布最新产品IPU-POD128和IPU-POD256。IPU-POD128和IPU-POD256是Graphcore迄今为止发布的最大型的产品,分别能够提供32 petaFLOPS和64 petaFLOPS的AI计算。IPU-POD128和IPU-POD256的发布 意味着Graphcore进一步扩展了其在超级计算机领域的业务范围,将为超级计算机领域提供超强AI算力。
IPU-POD16是理想的探索平台,IPU-POD64适用于想要建立AI计算的客户,而IPU-POD128和IPU-POD256适合需要实现进一步快速增长的客户,可以在整个系统中更快地训练基于Transformer的大型语言模型,在生产中运行大规模商业AI推理应用程序,通过将系统划分为更小、更灵活的vPOD,为更多开发人员提供IPU访问权限,或者通过在整个系统中探索GPT和GNN等新兴模型来实现科学突破,是云超大规模企业(Cloud Hyperscaler)、国家科学计算实验室以及在金融服务或制药等市场拥有大型AI团队的企业的理想之选。
首批部署IPU-POD128的客户包括韩国科技巨头Korea Telecom(KT)。为了不断满足日益增长的超大规模AI HPC环境市场需求,KT正与Graphcore合作,将其所拥有的IPU-POD64升级为IPU-POD128,以增加为客户所提供的“超大规模AI服务”。
KT云/数字体验业务部高级副总裁Mihee Lee表示:“通过此次升级,预计我们的AI计算规模将增加至32 petaFLOPS的AI计算,使更多元的客户能够使用KT的先进AI计算技术进行大规模AI模型训练和推理。”
与其他IPU-POD系统一样,AI计算和服务器的解聚意味着IPU-POD128和IPU-POD256可以在优化后,为不同的AI工作负载提供最大性能,实现最佳总体拥有成本(TCO)。例如一个以自然语言处理(NLP)为主的系统可以只使用2台服务器;而更多的数据密集型任务,例如计算机视觉任务等可以使用8台服务器。此外,系统存储可以使用来自Graphcore最近公布的存储合作伙伴所提供的技术,围绕特定的AI工作负载进行优化。
广泛使用的语言和视觉模型的结果显示,IPU-POD128和IPU-POD256具有极为出色的训练性能和高效的扩展能力,随着未来软件的优化,这两大产品有望进一步提高性能。
将Graphcore计算扩展到IPU-POD128和IPU-POD256需要大量使能技术支持,其中既包括硬件技术也包括软件技术。Graphcore将携手合作伙伴为全球客户部署IPU-POD256和IPU-POD128,客户可以从云端或Atos等Graphcore的合作伙伴处获取IPU-POD256和IPU-POD128。
Atos集团高级副总裁兼HPC和Quantum主管Agnès Boudot表示:“我们十分高兴能将 IPU-POD128和IPU-POD256 加入到我们的Atos ThinkAI产品组合中,使我们的客户能够在众多领域更快探索和部署更大、更具创新性的AI模型。”
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )