评估新的数据中心计算范式
在自动驾驶和大型语言模型(LLM)等颠覆性人工智能(AI)应用的推动下,半导体行业再次处于拐点。像OpenAI的ChatGPT这样的LLM突然在日常对话中流行起来,因为“聊天机器人”的复杂性似乎已经跨越了对话能力的门槛。这项技术集成到各种服务中的潜力似乎是无限的。
这种程度的智能化需要从数据中分析和提取信息,以及强大的数据存储、传输和处理能力,对现有数据中心和边缘设备的计算能力提出了挑战。finance Online估计,2021-2024年的数据消费量将从2021年的74泽字节(相当于1万亿的数据单位)增长到2022年的94泽字节,以及2023年和2024年分别增长到118泽字节和149泽字节。这些数字是惊人的,而目前数据中心的计算能力很难跟上。
数据中心的去中心化计算系统和大规模分布式计算系统已无法满足日益增长的计算能力需求。
当然,工程师不断开发更复杂的模型来分析和使用数据,并最终提高生产力。然而,传统的提高计算功率的方法受到物理原理的限制,传统的单片机计算功率路径是不可持续的。更多的创新正在迅速成为IT市场的当务之急,这对半导体行业来说也是一个机遇。
传统计算机芯片的性能增长遇到了瓶颈。自从60年前半导体产业起步以来,计算能力的进步由摩尔定律(预测晶体管密度每18个月翻倍)和登纳德定律(随着晶体管密度的提高,功率密度保持不变)描述。
这两种技术的结合,使得芯片能够在保持恒定能量和面积消耗的同时,不断提高计算能力。随着芯片制造过程向5nm和3nm移动,晶体管密度接近物理极限。摩尔定律正在减缓。登纳德定律于2004年左右结束,导致了"电源墙",随着晶体管密度的提高,电源和散热受到挑战。在先进的过程中,胶带和设计成本更高,并创建了"成本墙"。传统的单芯片计算能力提升路径是不可持续的。
当然,人们一直在努力提高和更好地利用计算能力。突破当前数据中心的瓶颈和克服挑战需要底层技术的创新。
现在出现了一种新的方法——一种基于大规模光电集成技术的数据中心计算范式,用于下一代数据中心的发展。其结果是大规模的光电集成取代传统的数字电路,引入基于集成硅光子学的信息处理和互联能力。
集成硅光学技术的光电混合数据中心,结合了光学计算、芯片和芯片间光学网络以及其他技术,垂直提高单节点计算能力(scale-up),和水平提高大规模分布式计算的效率(scale-out)。其中一个解决方案侧重于基于硅光子学的新的数据中心计算范式。
即使摩尔定律和登纳德定律还在继续,去中心化计算系统也无法满足计算能力的指数增长。相反,随着资源消耗的增加,必须在数据中心部署大规模分布式计算系统来满足计算需求。
硅光子计算提供了一种超越摩尔定律的计算能力增强途径,因为晶圆级片上光网络使计算范式能够有效地与传统的电子芯片和存储芯片一起工作,以提高单个节点的计算能力。与所有新技术一样,新的计算范式将在供应链、生态系统和商业模式上经历一个过渡阶段。
从底层组件到顶层应用软件开发都需要创新。然而,基于硅光子学的新计算范式的前景是令人感兴趣的,其可以帮助控制数据中心的挑战,从泽字节到京字节甚至更远。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。