欢迎访问 中国系统集成行业协会 官网!
当前位置:首页>>资讯中心

边缘计算的未来:推动AI性能、可扩展性与安全性的新浪潮

发布时间:2025-08-22 14:39:37

边缘计算的未来:推动AI性能、可扩展性与安全性的新浪潮

预计到 2028 年,包括 GPU、加速器和高速高带宽内存 (HBM) 芯片在内的 AI 专用芯片市场规模将飙升至 1500 亿美元。这些专用半导体为从生成式 AI 模型到物联网解决方案等各种先进的 AI 应用提供支持。目前,人们的焦点在于开发能够提供领先性能、同时确保可扩展性和效率的芯片设计。然而,AI 芯片性能的成功也取决于数据的处理位置。边缘 AI 有可能成为推动所有行业发展的潮流。

AI 和边缘计算的兴起

边缘计算和 AI 的快速发展彻底改变了各行各业——从汽车到制造业、医疗保健、电子、零售和金融服务——为企业和消费者提供了更智能、更快速、更安全的解决方案。

这些快速增长的解决方案依赖于云来处理海量的 AI 工作负载。尽管云生成式 AI 的成本高昂,但几乎无限的内存容量和功耗意味着,在可预见的未来,基于云的应用程序将继续推动 AI 应用的发展。

当人工智能应用的计算处理主要在云端进行时,这将带来安全性、隐私性、响应时间和可扩展性方面的挑战。例如,自动驾驶汽车需要近乎即时的响应时间才能安全有效地运行,因此,集中在云端的计算资源会带来延迟,并对性能产生负面影响。

边缘人工智能颠覆游戏规则

边缘人工智能能够释放更佳的性能、可扩展性、安全性和创新能力。它具有变革性,因为它直接在设备内部使用人工智能,在数据源附近进行计算,而不是通过云计算在异地数据中心进行计算。

边缘人工智能的分布式特性提升了可扩展性,使得在众多设备上部署边缘优化的人工智能应用更加轻松、经济高效。此外,通过在边缘处理潜在的敏感数据,可以增强隐私和安全性,降低数据泄露的风险。边缘计算还能提高可靠性,因为设备可以在断网或无网络连接的情况下运行。

这项技术变革的核心在于边缘人工智能的芯片设计——将科学、工程和人工智能优化相结合,创造出能够在本地进行实时数据处理的芯片。

支持边缘AI的芯片设计

在边缘执行复杂的生成式AI处理的需求带来了新的挑战,包括实时处理需求、严格的成本要求、有限的内存资源、紧张的空间要求以及强制性的功耗预算。

传统的芯片架构在边缘应用方面面临挑战,因为在内存和处理器之间不断移动数据会产生高昂的能耗成本。AI工作负载,尤其是大型语言模型 (LLM),需要频繁的内存访问,这可能会造成瓶颈。为了缓解这一问题,新的芯片架构将AI加速器与优化的内存层次结构集成在一起,从而减少对外部内存的依赖,并实现更快、更高效的处理。其关键原则是最大限度地重复使用已加载到芯片上的数据。

强大的SoC解决方案至关重要,这样智能设备才能感知并理解其周围环境。三维异构集成是合乎逻辑的一步,这样数据处理、存储和专用AI加速器就可以在芯片上更紧密地结合在一起。垂直结构对于边缘AI也至关重要。 3D架构并非将平面结构变得越来越小,而是利用三维空间在相同的表面积上向上构建,类似于高层建筑。这项技术近年来取得了巨大成功,尤其是在闪存(NAND)领域。这些进步使得进一步提升芯片性能成为可能,同时在保持相同性能的同时降低成本和能耗。如果没有这些强大的专用芯片,人工智能就不可能实现。

这些技术进步有一个共同点:它们需要以前从未在芯片生产中使用过的新型“智能”材料。新的3D结构需要完全不同的材料分层,从水平层转变为垂直结构。此外,许多常用材料的特性在进一步缩小时会发生巨大变化(例如,如果铜的尺寸只有几纳米,它的导电性就会下降)。与此同时,机械性能和热性能也变得越来越重要。如今,芯片表面产生的热量比炉灶顶部还要多。采用分层结构时,散热变得越来越具有挑战性。开发能够更好地满足这些要求的新材料对芯片行业来说正变得越来越重要。

新材料的发现任务令人望而生畏——由于有数十种潜在元素可以选择组合成许多不同的三维结构,这项挑战似乎势不可挡。但如今芯片上运行的新工具可能有助于彻底改变未来的芯片。

例如,人工智能有助于开发新型、高度专业化的材料,使半导体速度更快、效率更高、耐热性更强。它还可以用于虚拟实验——可以测试材料在不同温度下的行为、是否与其他物质发生反应、或者可以制造到什么程度的纯度——所有这些都是在实验室混合之前进行的。

边缘环境的 AI 训练模型

目前用于训练 AI 的模型必须适应边缘计算,因为传统模型所需的计算能力是边缘设备无法提供的。由于这些限制,开发人员正在突破传统的深度学习方法。一个可能的方向是,AI 并非基于数据库中数百万个示例进行训练,而是通过观察人类训练员进行训练。因此,边缘 AI 设备可以提高计算效率,同时仍能实现较高的推理性能。

改进尚待实现,但前景光明

成本和效率的提升仍然是边缘 AI 成为主流的障碍。有证据表明,这已在进行中。Epoch AI 最近进行的一项综合分析确定了自 2012 年以来预训练语言模型算法的改进速度。他们发现,达到给定语言模型性能水平所需的计算量大约每八个月就会减半。SemiAnalysis 更乐观的未来预测表明,法学硕士 (LLM) 的算法每年将实现 4 到 10 倍的改进。无论如何,这比摩尔定律的速度要快得多。同样,推理定价成本也呈现出同样的指数级增长趋势,例如,GPT-3 质量成本在不到三年的时间里下降了约 1200 倍。


得益于目前已取得的重大进展,边缘 AI 如今已成为现实,并在未来几年拥有巨大的发展潜力和创新。随着 AI 应用在越来越多的领域得到应用,对嵌入边缘设备的高性能、更高效的专用芯片的需求将持续增长。

作者:Katherine Hutchison


声明:本站所使用的图片文字等素材均来源于互联网共享平台,并不代表本站观点及立场,如有侵权或异议请及时联系我们删除。