临夏回族自治州网站建设_网站建设公司_支付系统_seo优化
2026/1/16 22:15:07 网站建设 项目流程

2026年1月7日,工信部印发《工业互联网和人工智能融合赋能行动方案》,强化工业智能算力供给。加快工业互联网与通算中心、智算中心、超算中心融合应用,鼓励公共算力服务商向工业企业提供服务。引导工业企业加快边缘一体机、智能网关等设备部署。鼓励工业企业、设备供应商联合推动端侧设备智能化升级,在生产设备、传感器、无人运输车辆(AGV)等部署轻量化算力模块,提升数据实时处理能力。加快构建全国一体化算力网络,推动智算云服务试点在工业领域中应用推广,强化工业大模型在算力跨区域高效调用、“云边端”算力精准匹配等方面普及应用,提升工业智算供给能力和利用效率。

随着5G/6G、物联网和人工智能时代的到来,下一代互联网的关键特征之一是海量信息在本地生成并在本地消费,且大量的边缘设备存在可用计算和存储资源。尤其在工业互联网中,工业制造,医疗服务,无人运输等诸多场景中,对数据采集和处理的时效性、连续性、安全性、隐私性,以及数据价值的挖掘和利用,都有更高的要求。因此,未来几年是构建新一代智能数据中心基础设施的关键时期,数据中心将从“云+端”转变为“云+边+端”三层架构。

一、云边端一体化

云边端一体化架构,云端、边缘和终端设备的协同工作,既是一个整体,又各司其职:

云端‌:集中式数据中心,大规模高性能服务器集群,宏观决策,负责全局数据存储、复杂分析(如AI模型训练)和资源调度。‌

边缘‌:部署在靠近数据终端的小型数据中心(如工厂机房或基站),处理实时任务(如视频分析、设备控制),就近处理终端数据,过滤无效信息,降低端到端网络延迟,降低端到云带宽消耗。‌

终端设备‌:包括传感器、摄像头等物联网设备,用于数据采集和结果呈现,并执行简单指令(如开关控制)

不难看出,云端适合全局性、非实时、复杂度高、数据量大的计算密集型任务处理,算力、存储和网络资源充足且性能强大,而边缘优势在于分布广泛,靠近终端,响应时延更低,网络损耗更小,也减少了传输过程中安全风险,但资源有限,适合非计算密集型、实时型任务处理。“云”与“边”互为补充,相互协同,方能共同应对工业互联网在人工智能时代的发展要求。

二、边缘数据中心

现阶段,边缘数据中心处于初期阶段,但是发展迅速。通常来说,边缘数据中心规模小巧,单体规模一般不超过100个标准机架,有些甚至仅有一个机柜,但麻雀虽小,五脏俱全,同样具备计算、存储、网络等核心功能,能够对终端产生的数据快速处理、存储以及向其他数据中心转发。

不同于云端数据中心的通用服务器,边缘数据中心多采用边缘一体机。相比于通用服务器,边缘一体机软硬件集成度更高,在提供必要的算力、存储和网络的同时,能有效简化边缘环境的部署与管理。按照用途分类,边缘数据中心中的边缘一体机大致可以分为三类:

边缘服务器:边缘的大脑。主要用于处理和采集边缘设备生成的数据,执行边缘本地计算任务。

边缘存储:边缘的记忆。提供边缘本地数据持久化存储能力,加速数据存取和检索。

边缘网关:边缘的神经。链接云端、边缘和终端设备,实现协议转换、安全接入和流量调度。

随着技术发展,三类设备正在加速融合,广泛应用于数字工厂、智慧城市、自动驾驶等场景。

三、DPU:边缘数据中心新引擎

与云端数据中心相比,边缘数据中心规模小,资源少,在智算超算技术广泛应用的趋势下,边缘数据中心的算力资源愈发珍贵,网络性能的重要性也愈发凸显。而这,也恰好与DPU的定位相契合。

DPU是数据处理单元,是数据面与控制面分离思想的一种实现,让CPU专注于决策和计算,DPU负责数据处理和传输。在边缘一体机内部,DPU通过P2P技术和RDMA网络连接数据中心内部各种CPU、GPU以及存储资源,在网络层面中,DPU强大的网络卸载能力,可以极大释放边缘算力。

1、边缘服务器机间互联

边缘数据中心最核心的优势是大幅降低网络时延,不仅在于缩短了传输距离,更在于缩短节点间传输时延。DPU利用RDMA网络技术,提供高带宽,低延迟数据处理能力。DPU通过硬件加速和算力卸载,以及RDMA网络的“零拷贝”和“内核旁路”的特性,将网络数据包处理的任务从CPU、GPU卸载到DPU,释放算力资源用于核心业务。

以典型的GDR(GPUDirect RDMA)技术为例,DPU通过PCIe直接读取GPU显存,经由RDMA网络传输至远端GPU显存,避免了数据在GPU、主机内存和网卡之间的多次复制所导致的算力损耗和CPU终端。同时也可利用GDS(GPUDirect Storage)技术实现算力与存储直接的数据传输。

2、边缘存储挂载

边缘存储受限于空间、供电、散热能力,存储资源极为有限,而存储扩容往往意味着需要消耗更多的算力去处理存储事务。

DPU支持存储协议卸载,以DPU作为目标存储发送IO请求,目标端DPU可将存储协议解析能力卸载到DPU硬件,由DPU直接对存储资源进行数据落盘,无需CPU参与。并且,DPU可扩展多种存储协议,针对不同介质的存储资源进行统一纳管。

DPU可以直接读写本地存储,也可以通过RDMA网络访问远端扩展存储。与传统的CPU处理读写请求的方式相比,利用DPU对存储协议处理与全栈加速能力,解决算力资源挤占、协议转换损耗及异构管理难题。

3、边缘智能网关应用

在边缘数据中心中,智能网关相比于传统网关,需要承担更多的职责,除了数据转发和基础路由,还需要具备协议转换,数据过滤,数据处理、安全防护等功能,并且要尽量降低延迟和带宽消耗。

而这恰好是DPU的优势所在。使用DPU直接连接网络和存储资源,硬件卸载网络数据处理,能有效提高数据分发调度的效率,提升网关性能,同时DPU具备可编程能力和第三方应用部署,支持对数据进行筛选,检测,转换等预处理,减少带宽损耗,并且支持分布式架构,实现多DPU并行处理,提升系统效率。DPU将这些本在CPU上处理的任务,卸载到DPU处理,有效释放CPU算力,提高硬件资源利用效率。

未来,DPU将在边缘计算中扮演关键角色,它作为连接算力资源(如GPU、CPU)与数据资源的枢纽,促进算力向数据源靠近,减少数据传输过程中资源损耗,有效提高边缘数据中心的资源利用率,优化资源成本配比,提升实时处理能力,增强系统性能, 可广泛应用于工业自动化、医疗、监控、物流、智驾等边缘计算场景中,推动工业智能化转型。

需要专业的网站建设服务?

联系我们获取免费的网站建设咨询和方案报价,让我们帮助您实现业务目标

立即咨询