2015-2016的机器学习平台开源大潮中,美国是当之无愧的引领者:无论是谷歌、亚马逊、微软、IBM等互联网巨头,还是美国各大科研院所,为开源世界贡献了品类繁多的机器学习工具。这其中不乏华人的身影,比如开发出Caffe的贾杨清。
但在大陆这边,无论是BAT还是学界,在开源机器学习项目上始终慢了一拍,令人十分遗憾。这与我国世界最大AI研究者社区、占据AI科研领域半壁江山的江湖地位*颇为不符。让人欣喜的是,2016下半年,百度和腾讯先后发布了它们的开源平台战略。虽然姗姗来迟,但作为下半场入场的选手,它们的开源平台各自有什么意义?本文中,作为机器学习开源项目盘点的第三弹,我们将与你一起看看包括百度腾讯平台在内的国内四大开源项目。
注:据创新工场人工智能工程院王咏刚副院长统计,我国AI发文数与引用文章数居世界第一,占世界总数一半以上。
1. 百度:希望获得开发者青睐的 “PaddlePaddle”
2016年9月1日的百度世界大会上,百度首席科学家吴恩达宣布,该公司开发的异构分布式深度学习系统PaddlePaddle将对外开放。这标志着国内第一个机器学习开源平台的诞生。
其实,PaddlePaddle 的开发与应用已经有段时日:它源自于2013年百度深度学习实验室创建的 “Paddle”.当时的深度学习框架大多只支持单GPU 运算,对于百度这样需要对大规模数据进行处理的机构,这显然远远不够,极大拖慢了研究速度。百度急需一种能够支持多GPU、多台机器并行计算的深度学习平台。而这就导致了 Paddle 的诞生。自2013年以来,Paddle 一直被百度内部的研发工程师们所使用。
而 Paddle 的核心创始人,当年的百度深度学习实验室研究员徐伟,现在已是 PaddlePaddle 项目的负责人。
徐伟
对了,从 “Paddle” 到 “PaddlePaddle” 的命名还有一个小插曲:Paddle 是“Parallel Distributed Deep Learning”的缩写,意为“并行分布式深度学习”.而去年9月发布时,吴恩达认为 “PaddlePaddle” (英语意为划船--“让我们荡起双~昂~桨,小船儿推开波浪…”)其实更郎朗上口、更好记,于是就有了这么个可爱的名字。
那么,PaddlePaddle 有什么特点?
支持多种深度学习模型 DNN(深度神经网络)、CNN(卷积神经网络)、 RNN(递归神经网络),以及 NTM 这样的复杂记忆模型。
基于 Spark,与它的整合程度很高。
支持 Python 和 C++ 语言。
支持分布式计算。作为它的设计初衷,这使得 PaddlePaddle 能在多 GPU,多台机器上进行并行计算。
相比现有深度学习框架,PaddlePaddle 对开发者来说有什么优势?
首先,是易用性。
相比偏底层的谷歌 TensorFlow,PaddlePaddle 的特点非常明显:它能让开发者聚焦于构建深度学习模型的高层部分。项目负责人徐伟介绍:
“在PaddlePaddle的帮助下,深度学习模型的设计如同编写伪代码一样容易,设计师只需关注模型的高层结构,而无需担心任何琐碎的底层问题。未来,程序员可以快速应用深度学习模型来解决医疗、金融等实际问题,让人工智能发挥出最大作用。”
抛开底层编码,使得 TensorFlow 里需要数行代码来实现的功能,可能在 PaddlePaddle 里只需要一两行。徐伟表示,用 PaddlePaddle 编写的机器翻译程序只需要“其他”深度学习工具四分之一的代码。这显然考虑到该领域广大的初入门新手,为他们降低开发机器学习模型的门槛。这带来的直接好处是,开发者使用 PaddlePaddle 更容易上手。
其次,是更快的速度。
如上所说,PaddlePaddle 上的代码更简洁,用它来开发模型显然能为开发者省去一些时间。这使得 PaddlePaddle 很适合于工业应用,尤其是需要快速开发的场景。
另外,自诞生之日起,它就专注于充分利用 GPU 集群的性能,为分布式环境的并行计算进行加速。这使得在 PebblePebble 上,用大规模数据进行 AI 训练和推理可能要比 TensorFlow 这样的平台要快很多。
说到这里,业内对 PaddlePaddle 怎么看?
首先不得不提的是 Caffe,许多资深开发者认为 PaddlePaddle 的设计理念与 Caffe 十分相似,怀疑是百度对标 Caffe 开发出的替代品。这有点类似于谷歌 TensorFlow 与 Thano 之间的替代关系。
知乎上,Caffe 的创始人贾杨清对 PaddlePaddle 评价道:
“很高质量的GPU代码”
“非常好的RNN设计”
“设计很干净,没有太多的 abstraction,这一点比 TensorFlow 好很多”
“设计思路有点老”
“整体的设计感觉和 Caffe ‘心有灵犀',同时解决了Caffe早期设计当中的一些问题”
最后,贾表示 PaddlePaddle 的整体架构功底很深,是下了功夫的。这方面,倒是赢得了开发者的普遍认同。
总结起来,业内对 PaddlePaddle 的总体评价是“设计干净、简洁,稳定,速度较快,显存占用较小”.
但是,具有这些优点,不保证 PaddlePaddle 就一定能在群雄割据的机器学习开源世界占有一席之地。有国外开发者表示, PaddlePaddle 的最大优点是快。但是,比 TensorFlow 快的开源框架其实有很多:比如 MXNet,Nervana System 的 Neon,以及三星的 Veles,它们也都对分布式计算都很好的支持,但都不如 TensorFlow 普及程度高。这其中有 TensorFlow 庞大用户基础的原因,也得益于谷歌自家 AI 系统的加持。
百度的 AI 产品能够对普及 PaddlePaddle 产生多大的帮助,尚需观察。我们获知,它已经应用于百度旗下的多项业务。百度表示:
“PaddlePaddle 已在百度30多项主要产品和服务之中发挥着巨大的作用,如外卖的预估出餐时间、预判网盘故障时间点、精准推荐用户所需信息、海量图像识别分类、字符识别(OCR)、病毒和垃圾信息检测、机器翻译和自动驾驶等领域。”
最后,我们来看看对于自家推出的 PaddlePaddle,李彦宏怎么说:
“经过了五六年的积累,PaddlePaddle实际上是百度深度学习算法的引擎,把源代码开放出来,让同学们、让社会上所有的年轻人能够学习,在它的基础上进行改进,我相信他们会发挥出来他们的创造力,去做到很多我们连想都没有想过的东西。”
2. 腾讯:面向企业的 “Angel”
2016,鹅厂在 AI 领域展开一系列大动作:
9 月,成立 AI 实验室。
11 月,获得 Sort Benchmark 大赛的冠军
12月18日,在腾讯大数据技术峰会暨 KDD China 技术峰会上对外公开 “Angel” 的存在,并透漏它就是拿下 Sort Benchmark 冠军背后的天使。
(即将)在2017 年一季度,开放 Angel 源代码。
Angel 将成为 PaddlePaddle 之后、BAT 发布的第二个重磅开源平台。那么,它到底是什么?
简单来说,Angel 是面向机器学习的分布式计算框架,由鹅厂与香港科技大学、北京大学联合研发。腾讯表示,它为企业级大规模机器学习任务提供解决方案,可与 Caffe、TensorFlow 和 Torch 等业界主流深度学习框架很好地兼容。但就我们所知,它本身并不算是机器学习框架,而侧重于数据运算。
上个月18日的发布会上,腾讯首席数据专家蒋杰表示:
“面对腾讯快速增长的数据挖掘需求,我们希望开发一个面向机器学习的、能应对超大规模数据集的、高性能的计算框架,并且它要对用户足够友好,具有很低的使用门槛,就这样,Angel 平台应运而生。”
这其中的关键词,一个是“大”规模数据,另一个是“低”使用门槛。
“大”方面,企鹅表示 Angel 支持十亿级别维度的模型训练:
“Angel 采用多种业界最新技术和腾讯自主研发技术,包括 SSP(Stale synchronous Parallel)、异步分布式SGD、多线程参数共享模式HogWild、网络带宽流量调度算法、计算和网络请求流水化、参数更新索引和训练数据预处理方案等。这些技术使 Angel 性能大幅提高,达到 Spark 的数倍到数十倍,能在千万到十亿级的特征维度条件下运行。”
“低”方面,Angel 并没有采用机器学习领域标配的 Python,而使用企业界程序猿最熟悉的 Java,以及 Scala .企鹅声明:“在系统易用性上,Angel 提供丰富的机器学习算法库及高度抽象的编程接口、数据计算和模型划分的自动方案及参数自适应配置。同时,用户能像使用 MR、Spark 一样在 Angel 上编程,我们还建设了拖拽式的一体化的开发运营门户,屏蔽底层系统细节,降低用户使用门槛。”
总的来讲,Angel 的定位是对标 Spark .蒋杰宣称,它融合了 Spark 和 Petuum 的优点。“以前Spark能跑的,现在Angel快几十倍;以前Spark跑不了的,Angel也能轻松跑出来。”
其实,Angel 已经是鹅厂的第三代大数据计算平台。
第一代是基于 Hadoop 的深度定制版本“TDW”,它的重点是“规模化”(扩展集群规模)。
第二代集成了Spark 和 Storm,重点是提高速度,“实时化”.
第三代自研平台 Angel,能处理超大规模数据,重点是“智能化”,专门对机器学习进行了优化。
这三代平台的演进,从使用第三方开源平台过渡到自主研发,涵盖了从数据分析到数据挖掘、从数据并行到模型并行的发展。现在 Angel 已支持 GPU 运算,以及文本、语音、图像等非结构化数据。自今年初在鹅厂内部上线以来,Angel 已应用于腾讯视频、腾讯社交广告及用户画像挖掘等精准推荐业务。另外,国内互联网行业开口闭口就要打造“平台”、“生态”的风气,鹅厂也完美继承:“Angel 不仅仅是一个只做并行计算的平台,更是一个生态”--这种话虽然不耐听,但腾讯的大数据野心可见一斑。
12 月18 日晚,马化腾在微信朋友圈写道:“AI与大数据将成为未来各领域的标配,期待更多业界同行一起开源携手互助。”
但对于机器学习社区,Angel 开源的意义是否如同鹅厂宣称的那样大?
对此,机器学习界的“网红”、微软研究员彭河森说道:
“对于小一点的公司和组织,Spark 甚至MySQL 都已经够了(为了政治正确我提一下 PostgresQL);而对于大一点真的用得上Angel的企业,如阿里巴巴等,早就自主开发了自己的大数据处理平台。”
因此,他总结 Angel 的发布是一个“很尴尬的时间和市场定位”.
彭河森
与百度 PaddlePaddle 相比,Angel 有一个很大的不同:它的服务对象是有大数据处理需求的企业,而不是个人开发者。可惜的是,由于 Angel 尚未正式开源,大数据、机器学习同行们无法对其进行一番评头论足。目前所有的信息都来自于鹅厂的官方宣传。关于 Angel 开放源代码后能在业界引发多大反响,请关注后续报道。
最后,我们来看看蒋杰对 Angel 开源意义的官方总结:
“机器学习作为人工智能的一个重要类别,正处于发展初期,开源Angel,就是开放腾讯18年来的海量大数据处理经验和先进技术。我们连接一切连接的资源,激发更多创意,让这个好平台逐步转化成有价值的生态系统,让企业运营更有效、产品更智能、用户体验更好。”
3. 阿里巴巴: 犹抱琵牌半遮面的 DTPAI
但凡说到平台,就不能不提阿里。
与百度比起来,阿里的 AI 战略布局看上去更“务实”:主要是依托阿里云计算、贴近淘宝生态圈的一系列 AI 工具与服务,比如阿里小蜜。而基础研究起步较晚,相对百度和鹅厂也更低调。 2016 年阿里 AI 战略的大事件是 8 月 9 日的云栖大会,马云亲自站台发布了人工智能 ET,而它的前身是阿里“小Ai ”.综合目前信息,阿里想要把 ET 打造成一个多用途 AI 平台:应用于语音、图像识别,城市计算(交通),企业云计算,“新制造”,医疗健康等等领域,让人不禁联想起 IBM Watson.用阿里的话来说,ET 将成为“全局智能”.
但是,在开源项目方面,阿里有什么布局(马云最喜欢用这样的词)?
答案有惊喜也有失望。
好消息是,阿里早在 2015 年就宣布了数据挖据平台 DTPAI (全称:Data technology,the Platform of AI,即数据技术-人工智能平台)。
坏消息是,那之后就没动静了。
当时,也就是 2015 年的八月,阿里宣布将为阿里云客户提供付费数据挖掘服务 DTPAI.当然,对它的发布免不了大谈特谈一通“生态”、“平台”--宣称 DTPAI 是“中国第一个人工智能平台”.格调定得相当高。
它有什么特点?
首先, DTPAI 将集成阿里巴巴核心算法库,包括特征工程、大规模机器学习、深度学习等等。其次,与百度、腾讯一样,阿里也很重视旗下产品的易用性。阿里 ODPS 和 iDST 产品经理韦啸表示,DTPAI 支持鼠标拖拽的编程可视化,也支持模型可视化;并且广泛与MapReduce、Spark、DMLC、R 等开源技术对接。
若仅仅如此,一个阿里云的付费数据挖据工具还不会出现在这篇文章中。我们真正感兴趣的是:阿里表示 DTPAI “未来会提供通用的深度学习框架,它的算法库将在后期向社会开放”.
嗯,有关 DTPAI 的信息到此为止。Seriously,2015 年之后它就再也没消息了。阿里云是耍猴还是在憋大招? 我们只有走着瞧。
4. 山世光:大陆学界硕果仅存的 SeetaFace
盘点了 BAT 的开源平台规划,再来看一个始于学界的项目。与国外 AI 学界百花齐放的现状不同,大多数人从未听说过始于国内学界的机器学习开源项目,这方面几乎是空白一片--说是“几乎”,因为有中科院计算所山世光老师带领开发的人脸识别引擎 SeetaFace .
山老师是我国 AI 界的学术大牛之一,2016 年下半年已经下海创业,创业后不久就公开了 SeetaFace.山老师的研究团队表示,开源 SeetaFace 是因为“该领域迄今尚无一套包括所有技术模块的、完全开源的基准人脸识别系统”.而 SeetaFace 将供学界和工业界免费使用,有望填补这一空白。
SeetaFace 基于 C++,不依赖于任何第三方的库函数。作为一套全自动人脸识别系统,它集成了三个核心模块,即:人脸检测模块(SeetaFace Detection)、面部特征点定位模块(SeetaFace Alignment)以及人脸特征提取与比对模块 (SeetaFace Identification)。
该系统用单个英特尔 i7 CPU 就可运行,成功降低了人脸识别的硬件门槛。它的开源,有望帮助大量有人脸识别任务需求的公司与实验室,在它们的产品服务中接入 SeetaFace,大幅减少开发成本。
- 蜜度索骥:以跨模态检索技术助力“企宣”向上生长
- 2024世界显示产业大会启幕,4K花园自研“满天星”获十大创新应用
- 哈佛商学院:2024年全球96%代码库包含开源组件 Rust采用率增长500%
- 硅谷1/10程序员在摸鱼?基本不干活却能拿20-30万美元年薪
- 传马斯克的"友商"担心被报复 纷纷示好特朗普
- 数智龙江向新而行:5G-A与AI等数智技术助力龙江打造新质生产力
- 加州对特斯拉和SpaceX说不,公报私仇触怒马斯克
- 华为Mate品牌盛典盛大举行,Mate 70等十余款全场景新品重磅亮相
- 支付宝新升级,手机碰一下就能点餐!全国10万家餐厅可用
- 华为徐直军谈鸿蒙:10万个应用是鸿蒙生态成熟的标志
- 数智江苏 向新而行
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。