极客网·极客观察(小刀)8月27日,英特尔已经是x86服务器市场的垄断者,成功遮住了双眼,它忽视了移动设备的崛起,对GPU加速系统大爆炸反应迟钝,最终,当奄奄一息的AI再获新生、变成一个前景可观的市场时,Nvidia成为主角,英特尔落选。
AI就是下一代计算,Nvidia制定了清晰的AI战略,它用历史数据来认证自己的观点:GPU已经打破摩尔定律设置的障碍。有些人甚至开始高呼“黄仁勋定律”。黄仁勋正是Nvidia的创始人。在过去3年里,Nvidia营收翻了一倍,股价更是上涨10倍。
以前,在英特尔眼里Nvidia只是小角色,向自己的PC伙伴提供小众产品,一夜之间,它成为新市场举足轻重的玩家,而英特尔却呆呆旁观。
巨人已经觉醒。英特尔明确向世人暗示,在AI市场,它不会重蹈移动市场一样的错误,不会将AI市场割让给对手。英特尔已经知道,AI是数据中心业务增长的关键,在未来5年里,AI芯片销售额的年复合增长率估计会达到30%。
正因如此,在最近的数据中心创新峰会(Data-Centric Innovation Summit)上,英特尔才会高调进军AI芯片市场,还说去年公司的AI芯片营收已经达到10亿美元。
AI芯片市场不只有GPU还有其它
Nvidia刻意强调说,目前的AI发展以是GPU作为根基的,它的说法有相当高的可信度,但是忽视了一些事实。
按照英特尔的解释,这种说法最大的问题在于忽视了AI软件与GPU硬件的融合,AI运行是相当复杂的,不可能一招通吃,所以上述论断过于简单。
英特尔AI产品集团主管 Naveen Rao曾经在博客中指出,近几年AI取得成功主要依赖三大支柱:一是软件工具的优化和成熟,二是硬件更加出色(多种形式的硬件,不限于GPU),三是研发生态系统欣欣向荣,而且许多时候还是开源的。
Naveen Rao进一步强调说:
“客户发现,没有什么单一的好硬件可以应付各种各样的应用,因为AI的类型不是单一的。受到应用的限制,从数据中心到边缘设备,需要的能力各有不同,所以我们需要多种多样的硬件组合形式。覆盖多种多样的应用,就可以为英特尔客户带来最高的投资回报。”
深度学习模式越来越复杂,需要强大的并行处理能力,不过Naveen Rao认为,它只是AI软件生命周期的一部分。
联想一名AI高管曾经在文章中介绍说,从构想到部署,总个周期相当漫长,涉及到规划、数据收集、验证,开发部署模型时也要经历这样的流程。
Naveen Rao在峰会上曾表示,AI的执行环境多种多样,有小设备,比如物联网传感器和手机,也有自动驾驶汽车,远程设备,它们处在网络边缘,还有分散系统,比如云数据中心。
英特尔AI战略的基石是“宽度”,就是说英特尔有多种多样的技术,可以用在多种多样的环境中使用,另外,英特尔还向开源项目投资,增强软件性能,提高开发者的生产力。
按照Naveen Rao的说法,英特尔AI战略会用“三条腿”走路:一是工具(软件),二是硬件,三是社区(开发者生态系统)。 从英特尔的AI产品组合可以看出,它能满足各种需要,无论是端点、边缘系统还是数据中心,都可以使用英特尔产品。在英特尔帝国内已经有许多AI技术,有些是英特尔自己开发的,有些是收购的,比如:
——低能耗Atom处理器,内置Movidius视觉处理单元(VPU),用于物联网和移动设备。
——Mobileye先进驾驶员辅助系统(ADAS)和EyeQ芯片,用于无人驾驶汽车。
——桌面及移动x86处理器,内置GPU、GNA神经网络协处理器和Inference Engine加速技术。
——基于Altera开发的FPGA,它既给低能耗嵌入式系统用(Arria 系列产品),也给高性能数据中心用(Stratix系列产品),在实时数据评估中,可以加速深度学习模型的执行速度。Altera是英特尔收购而来的。
——Nervana神经网络处理器,它用高性能、灵活的GPU处理相同类型的模型训练和推断任务。
——Xeon Scalable x86处理器,用于执行一般任务,训练轻量级AI模型,完成繁重的模型推断工作。
产品消息不多
在峰会上,英特尔的重点只是讲述战略,所以没有过多谈到产品,这也是情理之中的事。不过在会议上英特尔的确谈到一些新AI技术,以及升级的AI技术,具体有如下几种:
——DL Boost x86指令,通过支持低精度16位浮点运算,它可以让深度学习运算加速,与AVX-512指令是兼容的。
——VNNI指令集(Vector Neural Network Instruction),它相当于AVX-512的扩展指令,通过支持8位乘法和32位加法,可以让深度神经网络训练进一步加速。Cooper Lake Xeon处理器将会引入DL Boost和VNNI,新处理器2019年推出,它是Cascade Lake的接班人。
——nGraph编译器,它可以优化AI代码,方便代码应用于不同的硬件平台。nGraph支持多种技术开发的模型。
——升级MKL-DNN数学库,改进矩阵乘法性能。
——展示Nervana NNP L-1000 神经处理器,它的目标是挑战GPU,帮助数据中心完成深度学习任务。
英特尔数据中心CPU架构主管 Sailesh Kottapalli介绍说,除了提升矩阵乘法计算能力,支持低精度和混合精度运算,未来Xeon处理器还会增加各个层级的缓存大小,扩充存储带宽,缩短延迟时间。所有这些都会提升AI性能,让通用CPU有能力替代GPU,完成许多工作。
最好的思考
英特尔收购了许多AI企业,比如Nervana,Movidius、Mobileye,最近还收购了Vertex.ai,这样英特尔就可以制定连贯的策略,解决各种AI问题。
因为AI工作多种多样,运行AI软件时设备的资源受到限制,所以英特尔拥有多种组合产品还是蛮重要的。不过英特尔的战略横跨几个处理器架构和指令集,所以优化工作必须做好。
Nvidia的产品没有英特尔那么丰富,它的GPU分成大中小三等,分别是Volta、Xavier和Jetson,都用到了CUDA编程平台。虽然Nvidia拥有先发优势,但是随着时间的推移,它的优势会削弱,因为开发者会接受更加先进的AI框架,比如TensorFlow,先进框架可以让开发者瞄准其它平台。
另外,Nvidia的神经网络优化GPU(配有Tensor内核)性能不错,现在还有优势,但是未来优势会缩小,因为下一代英特尔Xeon处理器推出之后,x86系统的性能会进一步提升,可以帮助数据中心做更多的事情。
英特尔说去年它的AI芯片销售额达到10亿美元,如果数据是真实的,我们可以断言英特尔已经在早期赢得许多企业的支持,在飞速膨胀的市场,它已经成为重要的竞争者。
就眼下来说,在硬件和软件工程方面,英特尔需要将关键工作做好,然后将各部分融合,将产品抛向市场,让购买者无法抗拒诱惑。
整个市场都对Nvidia入迷,不过如果认为英特尔已经失败,无力反击,那就大错特错了。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。