人工智能开始影响半导体设计,因为架构师开始利用人工智能技术来提高芯片的性能、降低芯片功耗,为未来芯片的开发、制造和更新奠定了基础。
AI和机器学习以及深度学习子集可用于极大地改善芯片内特定功能的控制和性能,它们能够在现有设备之上分层,集成到新设计中,允许其应用于更大范围的功能中。
AI提供了许多好处。其中:
它通过更稀疏的算法或数据压缩来改变特定功能的准确性,从而增加了粒度,提高性能并降低功耗;
它提供了将数据作为模式进行处理的能力,有效地提高了计算的抽象级别并增加了软件的密度;
它允许处理和存储器的读写作为矩阵完成,并大大加快了这些操作。
但AI还需要重新思考数据如何在芯片中运行:应用于边缘还是数据中心,因为无论在哪一方面,处理和存储的数据量都是巨大的。
新的起点
从好的方面来说,AI提供了一种平衡高精度结果的方法,而不是使用更多精度更低的元素来实现足够高的精度。在语音识别的情况下,精度远不如在安全应用中的面部识别或自动驾驶车辆中的目标识别那么重要。人工智能带来的是在特定应用程序需要时拨入这些结果的能力。
芯片中应运用AI,实际是关于数据的质量、数量和移动。这需要一种不同的方式来看待设计,包括团队之间的协作。
“计算非常简单,压缩/解压缩数据也简单,但在内存中存储和加载数据并不简单,”Arm研究员 Jem Davies说,“要构建这些系统,你需要特定领域的专家,比如机器学习专家和一些优化以及性能方面的专家。”
他指出,机器学习可以影响系统中的所有内容,其中大部分都隐藏在视图之外。
“有些是用户看不见的,”Davies说,“它被用来改善电池寿命。在相机内也有运用的机器学习方法。“
人工智能最适用于神经形态方法和不同的记忆结构,其中,数据可以作为矩阵来处理。使工作最佳化需要远远超出处理器的架构。它需要在内存中来回传输大量数据,并且需要更改内存,以便可以从左到右和上下左右写入和读取数据。
“许多架构改进是软件和硬件的结合,”Cadence音频和语音IP产品营销总监Gerard Andrews说,“这并不一定能提高各个处理器的整体性能,但它确实增加了功耗和内存效率。”
实际上,这使得软件方面的设计具有更高的密度,并且加速了数据在内存中的移动。“我们看到的问题是内存不会有效缩小,而且识别错误率正在上升,”Andrews说,“我们正在探索算法的稀疏性,以降低功耗并提高性能。”
这只是触及正在发生变化的表面,而这些变化正在迅速发生。
“内存子系统中发生的事情是不连续的,而且是和突然的,”Achronix的系统架构师Kent Orthner说,“由于需要大量数据管道,因此其开发了许多关于如何移动数据的架构。对于相对较浅的内存使用来说,这是一个巨大的障碍。“
正在探索减少数据流量的新方法之一是尖峰神经网络。因此,它们不是一致地发射信号,而是像人脑中的信号一样飙升。
AI风险和混乱
但是,AI也存在一定程度的风险,具体取决于应用和精确度。
过去电子系统的设计基于逻辑的完全可预测性,其中大部分都是硬连线的。AI将计算精度替换为可接受行为的分布。目前尚不清楚现有工具或方法是否会提供与设备在该分布范围内相同的置信度,特别是在系统出现损坏或退化的情况下,以及检测到任何异常行为的速度。
对于如何应用人工智能也存在一些困惑。目前,很多芯片并不是专门为人工智能开发的,它们都经过了修改和覆盖,以更有效地利用人工智能。
总的来说,这符合人工智能的初衷,这项技术是在全行业竞争的背景下出现的,用以提高相同或更低功率的性能。
对于针对AI培训或推理的芯片,或者针对利用AI功能的芯片内的处理器和加速器的芯片,一般的共识是使用不同的芯片架构可以实现几个数量级。但它并不适用于所有情况,并且有许多变量,例如训练数据的大小和值,可以使AI对某些应用程序无用。在其他情况下,性能提升100倍被认为是保守的。
Synopsys的战略营销经理Ron Lowman说:“应用程序和算法都存在挑战,处理器和存储器芯片也面临着挑战。这使得探索对于AI架构更为重要,而且这也是CCIX(加速器的高速缓存一致性互连)变得如此受欢迎的原因之一。越来越多的客户正在寻求架构的探索。每个人都在努力建立新的架构来模仿大脑。”
此外,还有一种小型处理器,其与各种针对不同数据类型定制的新型加速器相关联。并且,还存在很多关于数据压缩和量化的工作。
“正在进行从32位浮点移动到8位浮点的工作,”Lowman说,“现在的问题是你是否可以采用单比特进行量化。”
量化涉及将大量输入值映射到较小的输出值集合,并且最大的担忧是可接受的精度损失。通过足够的传感器或数据输入,理论上可以最小化该错误率的影响,但这非常依赖于应用程序。
沿着这些方向的另一种方法涉及源同步,特别是对于数据中心中的AI芯片,这促使片上网络拓扑发生变化。网络中的所有目标都接收相同的数据,使用多播方法可以更有针对性地利用数据。
“通过多播,您可以对多个目的地进行一次写入,”Arteris IP营销副总裁Kurt Shuler说。
AI芯片的一个问题是它们往往非常大。“最大的问题是时钟树,”Shuler说,“这需要同步通信,因为如果你以异步方式处理通信,会占用很多区域。此外,更有可能在大芯片上出现路由拥塞。解决这个问题的方法是创建虚拟通道链接,这样可以减少连线数量并通过一组线路共享通信。”
计划过时
另一个部分涉及能够与定期更新的算法保持同步,并影响将哪种处理器添加到使用AI的芯片中。其中每一个都会影响芯片内数据的移动以及用于该数据的处理器类型。
CPU和GPU主要通过软件提供一些可编程性。 DSP和FPGA提供固件/硬件的可编程性。嵌入式FPGA将可编程性直接添加到SoC或多芯片封装中。
选择处理器类型也取决于终端市场应用。例如,对于汽车或工业环境中的安全关键应用,该技术将保持最新状态,并且响应足以与道路上的其他车辆或工厂中的其他设备兼容。
eSilicon创新高级主管CarlosMacián表示,“当我们讨论面向未来的问题时,问题不在于它是否有效。作为开拓者的TPU表明,可以实现数量级的改进。但是对于新的工作负载,如果没有优化ASIC,你可能只会提高3倍。“
提高数据质量有助于解释为什么算法变化如此之快以及为什么现场可升级性对于某些设备而言至关重要。但是这些更改也会对性能产生影响,如果不在硬件中添加一些可编程性,就无法对其进行说明。问题是可编程性有多大,因为可编程逻辑比调整到软件的硬件慢得多。
结论
与许多其他半导体增长市场不同,AI是一种横向技术。它可以应用于各种垂直市领域,并可用于为这些市场开发芯片。它还可用于使现有芯片更高效。
这仅仅是人工智能革命的开始,其影响已经非常显著。随着设计团队越来越精通这项技术,将对他们如何设计芯片、这些芯片如何与其他芯片交互产生重大影响,并将为工具、硬件、软件的开发人员创造新的机会,甚至可能提供全新的市场。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )