看过今年的秋季苹果发布会,都会被苹果A11仿生处理器的性能吸引。从技术层面来说,A11仿生处理器内含的“神经网络引擎(neuralengine)”是其AI功能实现的基础,尽管目前还没有更加详尽的官方技术解析发布,但根据已知的信息来看,“神经网络引擎(neuralengine)”就是将部分需要实时响应的“人工智能”相关功能(如语音识别、人脸识别等等)进行加速,让其在手机端达成高效的计算,进而提升“人工智能”相关功能的用户体验,呈现出更高等级的“人工智能”功能。
通过AI技术加持后的立体人脸识别安全性远比图片人脸识别高得多
那问题来了,决定人工智能等级的基本要素是什么呢?其实就是计算的能力。2006年,“深度学习”的出现,成为人工智能再度爆发式成长的关键,正因为“深度学习”的出现,人工智能技术终于有了实用价值,不再是简单的概念。
然而,“深度学习”之所以在2006年出现突破,与云计算、大数据的日趋成熟密不可分,这两项技术,前者解决了“深度学习”所需的“廉价”高效计算能力,后者解决了“深度学习”所需的大规模的学习模型。两者的出现,将原本不实用的人工智能技术成功落地,也就意味着,大数据与云计算成为了人工智能发展道路上不可或缺的角色。
什么是云计算?什么又是大数据?
如果,你只是想了解苹果处理器的部分,可以下跳到下一个小标题。这一部分只是一个知识的普及,目的在于为后面说明设备端计算能力的作用进行简单的铺垫。
听了那么多年的云计算与大数据,很多人其实并不以为然,因为消费者层面确实难以直接接触到这两个概念,但它们确实在渐渐改变消费者的生活模式。
云计算
云计算是通过使计算分布在大量的分布式计算机上,而非本地计算机或远程服务器中,企业数据中心的运行将与互联网更相似。这使得企业能够将资源切换到需要的应用上,根据需求访问计算机和存储系统。好比是从古老的单台发电机模式转向了电厂集中供电的模式。它意味着计算能力也可以作为一种商品进行流通,就像煤气、水电一样,取用方便,费用低廉。最大的不同在于,它是通过互联网进行传输的。
云计算带来了“廉价”的高速计算
大数据
对于“大数据”(Big data)研究机构Gartner给出了这样的定义。“大数据”是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力来适应海量、高增长率和多样化的信息资产。
大数据技术的战略意义不在于掌握庞大的数据信息,而在于对这些含有意义的数据进行专业化处理。换而言之,如果把大数据比作一种产业,那么这种产业实现盈利的关键,在于提高对数据的“加工能力”,通过“加工”实现数据的“增值”。
大数据时代
从技术上看,大数据与云计算的关系就像一枚硬币的正反面一样密不可分。大数据必然无法用单台的计算机进行处理,必须采用分布式计算架构。它的特色在于对海量数据的挖掘,但它必须依托云计算的分布式处理、分布式数据库、云存储和虚拟化技术。
简而言之,云计算为大数据的“加工”提供了加工环境,而大数据的“加工”也成为“深度学习”的基础。云计算与大数据的融合与发展,为人工智能及相关技术的落地提供了更高的可行性解决方案。
云计算与大数据发展迅速,设备端的计算能力是否还重要?
既然,人工智能相关技术的运用当中,云计算等新兴的大数据计算方式成为了主流,那是不是意味着设备端的计算能力可以忽略不计呢?目前的科技发展进度来看,答案就仍然是否定的。
不可否认,云计算带来了更加廉价的高效计算,但相对而言,云计算的响应速度想要实现实时传输以及瞬间回应,网络的传输速度成为了目前最主要的问题。
以现已广泛商用的4G网络为例,传输速度为20Mbps,理想状态下,最高传速度可按照100Mbps计算。这样的速度,设备端将收集到的数据传回后端(数据中心或云端),再经过计算将结果传回设备端的整体时间消耗,便与数据的大小有直接联系。如果需要实现0延迟的回复,数据大小仅能为1M。然而,对于人工智能相关技术而言,生成的数据远比1MB大得多,这部分数据的大小难以用当前的网络传输速度实现秒传,这样就使结果返回到设备端的过程出现极大的延迟,降低用户体验还是其次,往往会为用户带来人身威胁。所以,设备端本地的高效计算能力,就能帮助数据分析类的人工智能功能更好实现实时响应。
自动驾驶车辆为周围环境绘制地图
自动驾驶车辆行驶中的路况判断显然本地计算更具优势
例如自动驾驶场景下,汽车便可被看做是设备端,当设备端(汽车)在高速移动中,实时收集到道路信息,并对这部分数据加以分析与判断。显然以目前的网络配置,在本地进行计算才是最快的选择。如果传回云端或数据中心,分析后再给出结果,很可能令正高速行驶在路面上的车辆由于网络延迟而发生事故,这是很可怕的!失去效率的人工智能看起来也就没有那么智能了!这是一种本末倒置的表现。因此,设备端的高效计算处理器与加速器都是必不可少的硬件配置。也正因此,英伟达、英特尔等芯片厂商,都努力在自动驾驶领域寻找出路。
以苹果为代表的设备端AI加速器成为技术发展初期标配
回到智能手机场景也如是一样。今年,以华为、苹果为代表的手机厂商,也都采用了各自独家研发的所谓“AI处理器”来为更多的人工智能相关技术在手机端的落地奠定基础。
苹果A11仿生处理器的六核心设计
以苹果A11仿生处理器为例,首先,为保证基本的运算能力,A11 CPU采用了六核心的设计,即2个高性能核心搭配4个高能效核心,并且高性能核心运算速度提升了25%,高能效核心速度提升了70%;其次,自家研发的GPU的能力也得到了提升,进而保证了图形处理的运算速度。对电脑有所了解的朋友想必都知道,CPU更加擅长数据类信息的运算,而GPU则更适合图像、视频类数据的运算,人工智能相关技术所需计算的数据,并非单纯的只有数据类信息,所以,提升GPU的运算能力,一方面可为手机带来更好的显示效果,另一方面也提升了手机设备对于图型类信息的处理速度,进而提升整体数据的运算能力;最后,“神经网络引擎(neuralengine)”的解决方案,进一步为人工智能功能的落地提供助力。简而言之,“神经网络引擎(neuralengine)”就是一个专门用于为人工智能(包括语音助手、人脸识别、物体识别等等)服务的加速器。这类加速器在设备端的应用原理起源于人工智能基础算法的人工神经网络,加速器的出现,一方面解决了CPU在运算人工智能数据时性能的不足,也消除了GPU进行人工智能数据计算时的巨大功耗,可谓是目前较为合理的解决方案。
苹果自主研发的GPU
除苹果外,资料显示,华为发布的麒麟970似乎也是采用了这样的设计。目前看来,在人工智能初级的探索阶段,让人工智能相关技术得以落地的消费级电子产品(手机、PC、汽车等)均可采用“神经网络引擎(neuralengine)”的模式来保证人工智能相关功能的数据可以在设备本地直接进行计算,进而保证人工智能相关功能的效率得到很好的提升,增强其实用性,为消费者带来“真·智能”的智慧用户体验。
人脸识别功能应用场景之一
至于未来
苹果通过人工智能技术实现的动态表情
至于未来会怎样有点难以想象,不过笔者认为,当5G网络得到成功商用,将会令大数据、云计算的能力进一步提升,继而“深度学习”等人工智能应用场景也更好的被网络串联。但即使这样,一些较为简单的人工智能功能的实现,在设备端本地进行计算还是一个不错的选择。毕竟,这样即可减轻后端运算的压力,又可有效利用前端的资源,进而让人工智能相关技术落地的体验达到最佳,迎来真正的人工智能时代!
- 蜜度索骥:以跨模态检索技术助力“企宣”向上生长
- 美国ITC裁定联想智能手机侵犯爱立信专利
- 英特尔高通隔空叫阵:两大巨头在较什么劲?
- IDC最新预测:2024年PC和平板电脑市场将增长3.8%至4.035亿台
- 苹果Vision Pro头显即将登陆中国台湾,12月17日正式发售
- 全球折叠屏手机出货量首次遭遇季度下滑,三星旗舰机型表现不佳是主因
- HUAWEI Mate X6 震撼登场,折叠引领者,巅峰再跨越
- 五年持续领跑,华为折叠屏一步领先,一路领先
- 全新HUAWEI MatePad Pro 13.2 英寸首发亮相,鸿蒙专业生产力体验再升级
- 华为凌霄子母路由 Q7 网线版推出,让每个房间都有满格信号
- 华为发布HUAWEI WATCH D2,开启腕上血压管理新篇章
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。