专注于数字技术的商业观察者
登录×
公司
2026-04-28

从云端到边缘:分布式算力正在重构全球化底座

时间: 2026-04-28 编辑:

当AI产业从“模型训练能力”的比拼,转向“规模化推理落地”的新阶段,一个更务实的行业共识正在逐渐清晰:...

当AI产业从“模型训练能力”的比拼,转向“规模化推理落地”的新阶段,一个更务实的行业共识正在逐渐清晰:决定AI商业价值的,不再只是模型本身,而是这些能力能否以低时延、可控成本以及合规安全的方式,真正触达全球用户。

这也意味着,过去以中心化为核心的云计算架构,正在遭遇新的边界。无论是跨区域网络延迟、实时交互体验,还是不断收紧的数据主权与合规要求,都在考验传统模式的适应能力。在这样的背景下,以边缘节点为基础的分布式算力体系,开始从“补充角色”走向“关键基础设施”。

也正是在这一轮架构演进中,深耕全球分布式网络二十余年的Akamai,选择与NVIDIA深度协同,将原本服务于内容分发的全球边缘节点,转化为AI时代的算力网络底座,试图为中国企业出海提供一种更现实可行的路径。

Akamai大中华区副总裁 张轲

Akamai大中华区副总裁张轲是这一转型过程的长期参与者。自2012年加入公司以来,他见证了中国企业出海逻辑的多轮演进——从早期的产品输出,到应用与平台出海,再到如今以AI能力为核心的新一轮全球化。

“每一次出海模式的变化,本质上都是对基础设施能力的重新要求。”在他看来,AI时代的出海,已经不只是“把服务部署到海外”,而是要在全球范围内实现稳定、实时且合规的能力交付。

作为Akamai除北美之外最大的区域市场,Akamai大中华区200多人的团队,长期围绕云计算、内容分发与安全构建一体化服务能力。而在AI浪潮下,这一能力体系正在被重新定义——从支撑流量分发,延伸到支撑算力分发。

对Akamai而言,这并非简单的业务扩展,而是一次底层定位的调整。张轲将其概括为:从“分布式云安全平台”,向“分布式AI推理平台”的演进。而与NVIDIA的合作,则成为这一转型最关键的支点。

在NVIDIA GTC 2026上,Akamai发布AI网格(AI Grid)架构,并启动基于Blackwell架构RTX 6000 PRO GPU的全球部署。这一组合的核心意义在于,将原本集中于数据中心的高性能推理能力,嵌入到全球边缘节点之中,从而改变AI推理的运行路径。

如果说“把算力搬到边缘”是第一步,那么真正的难点,在于如何调度这些分布在全球的资源。

Akamai亚太区云计算架构师总监 李文涛

围绕这一问题,Akamai构建了以AI推理云为核心的技术体系。Akamai亚太区云计算架构师总监李文涛介绍,这一平台并不是单一能力,而是由四个关键模块协同构成:GPU算力底座、AI网关调度体系、函数计算能力,以及分布式容器平台。

在算力层面,基于Blackwell架构的RTX 6000 Pro GPU提供了面向推理优化的性能基础;在调度层面,AI网关负责请求分发与安全控制,并通过语义缓存降低重复计算带来的成本;在执行层面,函数即服务实现了接近实时的边缘响应;而分布式容器平台,则将应用部署到最接近用户的位置,使平台能够在物理层面缩短与用户之间的距离

这些能力叠加之后,形成的不是简单的“边缘加速”,而是一套从边缘到核心的分层算力体系。AI网格正是在这一体系之上,实现对不同推理任务的动态匹配:轻量任务在边缘完成,中等负载在区域节点处理,高复杂度任务则回到核心算力集群。

这种“按需分配”的逻辑,本质上是一种更精细的算力经济模型。在李文涛看来,并非所有AI请求都需要调用最高规格GPU,只有在性能与成本之间取得平衡,AI才能真正具备规模化落地的可能。

目前,这一架构已经在多个行业场景中落地。从电商推荐、视频实时处理,到游戏智能体交互与自动驾驶数据分析,这些对延时与成本极为敏感的应用,正在成为分布式推理最直接的受益者。

但算力之外,另一个同样关键的变量,是安全。

张轲将AI时代的安全问题分为两个维度:一是AI内容本身的安全与合规,二是AI技术反过来被用于攻击所带来的新威胁。在他看来,这两类问题的复杂性,正在同步上升。

为应对这一变化,Akamai从2025年开始推出面向AI应用的专属防护体系,包括AI防火墙等能力,重点针对提示词注入、模型越狱、数据泄露等新型风险。同时,公司也在将大模型能力引入安全产品之中,使检测与响应更加自动化。

在企业内部安全层面,Akamai通过Guardicore微分段方案,将AI引入资产识别、策略生成与验证等环节,降低零信任体系的落地门槛。值得一提的是,这一方案与NVIDIA BlueField DPU的结合,将安全能力下沉至硬件层,即使操作系统被攻破,底层仍可执行策略控制,从而提升整体防护的韧性。

与此同时,围绕API与新型AI协议带来的风险暴露,Akamai也在强化全局可视化与自动化治理能力,使企业能够在复杂环境中维持对攻击面的持续掌控。

如果从更宏观的视角来看,Akamai在AI时代的定位,其实相当理性。

它并不试图取代传统云厂商,而是选择成为其补充:中心化云继续承担模型训练与数据存储,而分布式架构则负责高并发、低时延的推理与分发。这种分工,使企业能够在不改变原有架构的前提下,引入更适合AI时代的能力层。

写在最后

从内容分发到算力分发,Akamai的演进路径,某种程度上折射了整个互联网基础设施的变化方向:从“把内容送到用户”,走向“把计算能力送到用户附近”。

与NVIDIA的合作,使分布式AI推理从概念走向规模化实践;而在中国市场的长期投入,则让这一能力更贴近真实的出海需求。

在张轲的规划中,未来一年,Akamai将继续扩大GPU节点规模,并优化全球调度能力,让分布式推理在性能与成本之间取得更优平衡。

当AI成为企业全球化的新基础能力,算力的供给方式也在发生改变。相比单点性能的持续堆叠,如何在全球范围内实现稳定、合规且高效的能力交付,正在成为新的竞争焦点。

Akamai给出的答案,是用分布式网络重构算力路径——把复杂性留在基础设施内部,让企业专注于自身的业务与创新。而这背后所指向的,并不只是一次技术升级,更是一种新的全球化基础设施形态正在成型。

标签:
版权声明:本文版权归数字商业时代所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。