极客网·人工智能3月1日 GPU制造商英伟达日前推出了一项新服务,允许客户在云端访问其DGX AI超级计算机。该公司还发布了一套新的基于云的工具,用于构建生成式AI系统。自从OpenAI推出ChatGPT聊天机器人以来,这类AI模型得到了广泛欢迎,而英伟达也一直从中获利。
英伟达CEO黄仁勋在2月22日召开的电话财报会议上透露了新产品的细节。当财季,英伟达营收为60.5亿美元,略高于预期的60.1亿美元,但同比下降21%。
尽管全球经济放缓正在影响利润,但该公司预计今年第一季度的收入将达到65亿美元,高于此前63.3亿美元的预期,这在很大程度上得益于AI热潮推动了GPU需求。
英伟达将GDX超级计算机引入云端
黄仁勋透露,该服务将于今年3月在该公司举办的GTC开发者大会上正式推出。他说,“Nvidia DGX Cloud是开发者拥有自己的DGX AI超级计算机的最快、最简单的方式,用户只需要打开浏览器即可使用。这一产品已经在Oracle云基础设施应用,不久也将在Microsoft Azure、Google云平台和其他平台使用。”
黄仁勋还在会上讨论了该公司新的AI云服务,该服务将由英伟达直接向客户提供,并托管在微软Azure和谷歌云等主要云平台上。
黄仁勋指出,客户可以在AI超级计算机、加速库软件或预先训练的AI模型层上使用英伟达的AI云服务。此举将为客户提供世界上最先进的AI平台,同时可以利用当前最先进的云平台提供的存储、网络、安全和云服务。
这意味着,客户将能够使用该平台来训练和部署大型语言模型或其他AI系统。此外英伟达还将提供预训练生成式AI模型NeMo和BioNeMo——黄仁勋将其描述为“可定制的AI模型,面向希望为其业务构建专有生成式AI模型和服务的企业客户”。
“通过我们的新业务模式,客户可以在其私有云到公共云之间使用英伟达全方位的AI计算服务。”黄仁勋补充道。
客户对生成式AI的兴趣飙升
英伟达的声明可能不会受到一些大客户的欢迎,例如谷歌和微软,这两家公司都在购买英伟达的芯片来支持他们自己的AI产品和服务。
英伟达目前主导着用于加速AI工作负载的GPU市场,因此随着越来越多的企业购买其芯片。ChatGPT的成功以及谷歌Bard等其他生成式AI模型的出现,显著改善了该公司的财务状况。
黄仁勋表示,对GPU和其他处理器的需求是改善该公司财务前景的主要因素。他将这类系统的出现描述为“计算的新时代”,并指出“这种类型的计算机在应用上是完全革命性的,因为它为更多的人提供了民主化的编程。”
在谈到这类模型编写准确代码的能力时,他补充说:“这是一个可以为任何应用编写代码的AI模型。出于这个原因,每个开发软件的人或者开始警觉,或者感到震惊,或者积极开发类似ChatGPT的产品,并将其集成到他们的应用或服务中。”
“围绕我们在Hopper(英伟达的GPU微架构)上构建的AI基础设施的活动,以及围绕使用Hopper (英伟达的另一种GPU微架构) 和Ampere推理大型语言模型的活动在过去60天里飙升。毫无疑问的是,AI行业在过去60~90天中发生了相当大的变化。”他补充道。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )