专注于数字技术的商业观察者
登录×
公司
2025-11-12

从中心到边缘:Akamai用分布式架构重塑AI推理的未来

时间: 2025-11-12 编辑:

人工智能的爆发正让企业的计算架构经历一次深层次的重构。随着AI从实验室走向业务核心,推理阶段的压力...

人工智能的爆发正让企业的计算架构经历一次深层次的重构。随着AI从实验室走向业务核心,推理阶段的压力开始全面显现——海量用户、实时响应、复杂交互、安全合规,这些都让传统中心化云模式愈发吃紧。

值得一提的是,Akamai与英伟达的合作,正在重塑AI推理的基础架构版图——在经历了互联网分布式时代的锤炼之后,Akamai再次以全球数千个节点为基座,将AI算力下沉至网络边缘,携手英伟达的Blackwell架构和RTX PRO系列GPU,构建出面向下一代智能应用的Akamai Inference Cloud。

据了解,Akamai Inference Cloud是一套面向全球的分布式AI推理平台,它将AI计算从中心数据中心延伸到互联网边缘,让推理更贴近用户与设备,从而实现高性能、低延迟和安全的实时处理。其依托Akamai覆盖全球的4200多个节点,并融合英伟达Blackwell AI基础架构,为企业提供高效、可扩展的AI推理能力,重新定义了AI应用的部署与运行方式。

这种架构的逻辑与互联网早期的发展路径如出一辙——只有足够贴近用户,技术才能真正普及。如今,AI正沿着类似的路线,从云中心走向网络边缘。

Akamai亚太区与全球云架构师团队总监李文涛

“通过软硬件深度融合,从GPU、DPU到AI Enterprise软件,形成一体化的推理基础设施,支撑从核心到边缘的全链路AI工作负载。”在Akamai亚太区与全球云架构师团队总监李文涛看来,Akamai与英伟达的此次合作,不仅能将企业级AI工厂的能力延展至边缘,帮助企业打造个性化的智能体验;还可以实现流式推理与智能体赋能,满足金融、支付、风控等对实时性要求极高的业务场景;同时能让AI系统以“机器速度”运行,支撑自动驾驶、智慧城市、工业机器人等毫秒级决策需求;并通过NVIDIA NIM推理微服务技术栈,大幅缩短AI推理服务的部署周期,让AI价值更快落地。

正如Akamai云产品副总裁Shawn Michels在GTC大会上所阐述,“机器速度级AI意味着AI的反应速度将超越人类极限,从几秒到几毫秒的跨越,将让AI从‘云端的思考者’”变为‘实时的决策者’”

这也印证了英伟达CEO黄仁勋的判断:AI推理的负载规模将远超训练阶段,甚至达到后者的十亿倍。以ChatGPT为例,训练阶段或许只需数万张GPU,而推理阶段要同时服务数亿用户,算力需求呈指数级增长。Akamai Inference Cloud正是面向这一趋势的答案——通过分布式的边缘推理架构,为全球AI的实时响应与规模化部署奠定基础。

毫无疑问,互联网正迎来一次由AI驱动的结构性重塑。过去,人机交互主要依赖“请求—响应”的单线模式,例如搜索或问答;而在即将到来的智能体互联网时代,交互将演变为更复杂的多步骤过程——AI将持续学习、跨模型协作,并在多源数据间动态整合信息,为用户提供实时、个性化且沉浸式的体验。这意味着互联网的底层架构、算力分布和响应逻辑都将被重新定义。

在这一趋势下,传统中心化云架构已难以满足智能体时代的实时性需求。如今的AI交互可能只是一次问答,而未来的AI任务往往需要多轮推理、工具调用与验证,却仍被期望在几秒内完成。若依赖远端数据中心,响应时间可能延长至分钟级,无法支撑智能驾驶、IoT设备交互、电商个性化推荐或金融实时风控等场景。真正的突破,必须来自分布式的边缘推理——以实现毫秒级的响应,真正推动业务的实时化与智能化演进。

Akamai将这种架构定义为AI发展的未来方向。它的核心在于能够基于真实世界的动态实时上下文数据,生成并执行新的决策。该体系由两部分构成:一是分布式GPU与AI算力管理,在边缘节点直接部署多类型AI模型,支持包括RAG(检索增强生成)在内的本地推理功能;二是围绕推理过程的三大增强能力——智能路由、双向安全管控与性能优化。

“Akamai的边缘推理解决方案不仅提供算力基础,更集成了路由、安全与优化能力,形成完整的边缘AI服务闭环。”李文涛透露,在实际测试中,基于边缘节点部署的英伟达Blackwell RTX PRO 6000 GPU,可实现6至10倍的响应速度提升,P95延迟降低高达5倍;每百万Token的处理成本下降40%至60%;整体扩展性提升10倍,全球触达能力提升200倍。

总结来说,这种“分布式边缘推理”将成为智能体时代不可或缺的基础设施。过去几年,企业主要聚焦模型训练,但真正的商业价值来自“后训练阶段”——即如何在具体场景中实现高效、低延迟的AI推理。智能体时代的AI系统将产生数以百亿计的任务交互,对时延、扩展性与资源调度提出前所未有的要求。

在Akamai看来,AI的真正价值不止于模型训练,而在于让智能能力实时响应世界。在实际应用中,Akamai已与全球多家客户展开合作。例如,Akamai与媒体科技公司Monks的合作,生动展示了这种理念的落地。

Monks是一家以AI驱动品牌增长的企业,他们希望在直播场景中实现8K视频的实时处理与分发。系统需同时采集多路赛事直播信号,通过AI识别精彩瞬间并即时生成高质量数字图片资产。这一过程需要在毫秒级完成:视频流经由5G网络传输,AI必须在直播进行的同时完成检测、分析与生成。

可以说,此类场景非常适合在互联网边缘侧完成AI处理——即靠近5G基站、最终用户或数据源的网络位置。只有通过边缘计算,才能真正实现AI服务的实时化与高性能交付。

这正是Akamai边缘AI架构的核心价值所在。在李文涛看来,Akamai正在以清晰的路线推进AI推理架构的演进:首先是算力分布式部署,让GPU资源遍布全球互联网边缘,使算力更贴近用户与设备;其次是智能路由与优化,在AI推理请求发起后,系统能自动将任务路由至最佳模型节点,在保障性能的同时平衡成本;然后并行化处理,针对多步骤的智能体任务实现并行加速,大幅提升整体推理效率;最后本地化上下文增强,利用边缘节点掌握的实时状态信息,提高响应的准确性与即时性。

这种分层架构也反映了Akamai对AI未来的整体判断:扩展AI推理能力必须突破传统集中化部署的限制。未来,企业可采用“集中化训练+边缘化推理”的协同架构——即利用集中资源进行模型训练,同时依托边缘AI资源提升推理的响应速度与性能。

写在最后

Akamai Inference Cloud的推出,标志着AI推理从中心走向边缘的时代正式开启。它不仅是一场技术革新,更是一种架构的转向——让智能,真正贴近世界的每一个终端。

在可预见的未来,AI将不再只是“云端的思考者”,而会成为“身边的行动者”。而Akamai,正试图用27年的互联网基础设施经验,为智能体时代铺设新的高速公路。

标签:
版权声明:本文版权归数字商业时代所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。