今天,英特尔 CEO Brian Krzanich 在华尔街日报的 D.Live event 栏目中宣布,英特尔即将配置全世界首创的为人工智能而重新设计的系列处理器: Intel? Nervana? Neural Network Processor family(神经网络处理器系列)。
英特尔称 Nervana NNP 是专为深度学习定做的架构,拥有新的存储器架构,更高的可扩展性、数值并行化,并且英特尔有将深度学习性能提升100倍的野心,让用户从已有硬件(并非专门为 AI 而设计)的性能限制中解放出来。
英特尔 Nervana NNP 并没有标准的高速缓存层次结构,而且单片存储器由软件直接控制以更好控制存储过程,从而使芯片可以在每一次内存释放(die)中获得高度的计算资源效用,这意味着能将深度学习模型的训练时间大大缩短。
AI 模型的可扩展性达到新的层次
英特尔 Nervana NNP 拥有高速的开和关(on and off)的芯片内部数据互联,从而允许大量数据的双向转换。这种设计的目的是实现真正的模型并行化,即神经网络的参数分布在多个芯片中。这使得多个芯片像一个大型虚拟芯片工作,因而能容纳大型的模型,使客户能从数据中获得更多的洞见。
高度的数值并行化:Flexpoint
在单个芯片上做神经网络计算极大地受到能耗和存储带宽的限制。为了使神经网络的工作负载能获得更大的吞吐量,除了上述的存储技术革新,英特尔还发明了一种新的数值类型,Flexpoint。Flexpoint 允许使用定点乘法和加法实现标量计算,并可以通过共享指数实现大动态范围。由于每一次循环变得更小,使得在每一次投掷中能实现更大规模的并行化,同时大大降低每一次计算的能耗。
英特尔称这只是这个硅基芯片系列的第一个产品,并计划利用这个系列在 2020 年将深度学习训练的性能提升 100 倍。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )