借助Cloud Ai和Edge AI,该架构可以按其使用目的发挥作用。设计新的智能服务的人员必须知道如何充分利用两种技术,既可以改善服务的固有性能,又可以确保创新的软件解决方案具有越来越好的用户体验。
当我们谈论人工智能时,本质上是在谈论一种方法,如果以有意识的方式将其应用于公司数据(数字,图像,声音,文本),则可以肯定地加快流程,使其自动化,直接影响收入,成本和风险。商业。此外,人工智能和机器学习的认知工具日益民主化甚至最小的公司也可以踏上这一激动人心的旅程。今天,我们比以往任何时候都可以依靠可以整合传统业务平台并使其朝着更高绩效水平发展的具体硬件和软件工具,引入预测技术统计数据是除常规描述性统计数据之外的日常工具,预测并不意味着猜测。这意味着相对于对事件的观察,应使用合理且数学上使事件发生或基准发生概率估计之间的误差最小化的方法。如果误差很小,那么这意味着您将能够以很高的精度预测下一个,因为我的设备将给我,或者图像或声音所属的类别,或我很可能在本文中写的字眼。这是AI的“魔力”。除了执行这些操作外,计算机还需要进行大量复杂的计算,因此需要大量的硬件资源,尤其是如果这些计算是在我们的笔记本电脑或台式机上进行的。实际上,当我们谈论人工智能时,实际上是在谈论矩阵计算,即数学运算,加法,乘法,数值矩阵的转置。普通的CPU,尽管是最新一代的,但其计算能力始终受其固有的计算能力以及CPU必须同时管理多个进程(必须使整个机器正常工作)的限制。它不能太饱和。在标准架构中也无法并行处理许多CPU。显然,这成为一个限制。然后是云计算技术。
GPU的重要性
为了完成这项重要任务,提供了GPU(即图形处理单元):它们是处理器(如NVIDIA制造的处理器),旨在管理视频游戏中的典型复杂处理(最终,它们始终是用于确定游戏机位置的矩阵计算)。 3D空间中多边形的点和面)。通过扩展,如果GPU可以进行3D计算,则它可以轻松地用于涉及连续处理数字数据的任何其他任务。
此外,还应当指出的是,作为陈述Nvidia首席执行官黄仁勋(Jensen Huang)认为,图形处理器的计算能力增长比摩尔定律规定的增长幅度更大。实际上,这项法律以1965年宣布英特尔联合创始人戈登·摩尔(Gordon Moore)的名字命名,它指出CPU芯片的计算能力每两年翻一番。另一方面,黄仁勋强调了当今摩尔定律如何被每年仅几个百分点的CPU功率增长所否定,而GPU的增长却远不止于此。实际上,在五年的时间里,GPU的能力增长了25倍以上,而按照摩尔定律,CPU的增长应该只有10倍。
此外,可以并行化多个CPU,从而确保为我们的AI或3D工程保证正确的计算能力。
该序言是必要的,以了解拥有足够的硬件设备不仅涉及巨额投资,而且还需要占用机器24/7来收回投资成本。并非所有公司都有能力和技能来拥有专用于这些目的的服务器场。
此外,必须说AI在两个不同的时刻占据了机器:训练(即我们教机器执行特定任务的那一刻)和推理的时刻,即当机器使用预测模型以预测未来数据。实际上,第一阶段的培训会大量消耗机器的资源,进行有时甚至长达数天的计算,然后返回一个统计模型,该模型代表对我们要处理的机器的任务的数学解释。随后,此模型用于所谓的推理,即用于执行与训练相同但针对算法从未见过的数据的新任务的实际预测活动。例如,
该预测阶段对于机器而言不那么繁重,但是在任何情况下它都将更频繁地执行,因此就时间而言将占用大量机器。
云计算
正是由于以下原因,云才为公司提供了帮助:减轻了对机器的多年投资的一部分,通过将所有处理负载转移到远程机器来优化硬件结构的TCO总拥有成本。这些机器可以根据需要进行适当激活或停用,因此需要付费使用,而不是为设备付费。然后,公司产生的使用成本也包括一系列服务,其中包括一些必不可少的服务,例如网络安全,灾难恢复,符合GDPR等。其他可选模型,例如按需机器学习模型已经可用并准备用于一般用途。
对于供应商和客户而言,云计算绝对是一个巨大的机会。以亚马逊为例,其收入的50%以上来自AWS平台。通过诸如AWS或Microsoft的Azure或Google Cloud之类的服务,公司可以将其软件产品转换为真正的平台即服务(PaaS /平台即服务),公司为此需要支付经常性费用。这样做的好处是,即使在初步设计阶段并没有立即意识到这些需求,也可以远程执行甚至复杂的功能,也可以根据您的需求扩展机器的配置。通过单击的简单性,添加了视频卡,增加了Ram,并在新计算机上安装了节点。如果您需要支持更大的请求负载,则可以大大减少服务设置或升级时间。
此外,一些提供商在其云服务中还提供特殊卡TPU(张量处理单元),这是专门设计用于处理数据多维矩阵(张量事实)的处理器,这些数据多维矩阵是AI的更复杂算法的典型特征。这样一来,您就可以在云中执行非常复杂的计算,而所需时间仅为本地计算机可以执行的时间的一小部分。
代替看云的局限性,必须说,管理往返于远程服务器的数据需要大量使用网络带宽,以及与API(应用程序接口)微服务的连续客户端/服务器通信。这是因为推理活动实际上已转换为远程设备。
因此,根据我们将要创建的服务类型,服务器将或多或少地加载操作。例如,对象(例如面部)的连续识别将需要结构化的后端,以便支持对将在流传输中发送的帧进行分段的需求。
Edge AI的作用
为了优化其中一些活动,存在Edge AI,即可以在用户附近使用设备以在现场执行相同的推理操作而无需将信息传输到网络的可能性。
简而言之,Edge Ai意味着为电子设备配备具有AI的自身智能,并可能还为其提供与网络以及设备之间的连接性。Edge AI有什么好处?
优点很多,仅考虑此体系结构方法可以在延迟方面为服务的有效性带来巨大的效用。例如。在物联网设备(相机/传感器等)上,可以使用AI专用芯片(例如Movidius或OpenVino等)增强的面部识别或异常预测更加有效。
这也降低了隐私风险。如果数据在网络上传输,可能会被拦截或破坏。但是,通过在本地处理预测,数据将保留在设备中,无需传输到其他地方。
那么,与在云中为来自多个设备的数据管理多个推理处理线程相比,在单个设备上进行单个推理无疑是一项成本较低的任务。
最后,很明显,占用带宽的数据较少,可以使用普通的连接基础结构来构建智能服务,而不会为特定的连接产生额外的费用。
首先,由于这些智能设备允许对AI模型进行几乎实时的处理,因此打开了一个巨大潜力的场景。
借助这项技术,可以想象没有排队的自由流动结账服务,因为相机可以识别出托盘中的食物。或安全设备的自动检测服务(例如COVID面罩),入侵的检测以及能耗的监视和预测或机械的自动预测管理等。
在特定的用例中,将人工智能的力量传递到最后一英里可以使它成为力量的乘数,从而导致计算工作的细分,并提高了设计服务的有效性和效率。
结论
我们的结论是,尽管没有明确的选择,但对于Cloud Ai和Edge AI,架构已可以用于其用途,而设计新的智能服务的人将必须能够充分利用这两种技术不仅可以改善服务的固有性能,还可以确保创新的软件解决方案具有更好的用户体验。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )