生成式AI、混合云、开源基础设施,这三个看似独立的发展方向,正在重塑整个企业IT的技术架构和商业逻辑。随着大模型应用快速推进,企业对算力资源的需求不再集中于某一处“数据孤岛”,而是向多云、混合云、边缘等多场景动态扩散。同时,AI技术正以前所未有的速度渗透至软件开发、数据治理、安全合规等关键链条,而这也对底层平台的开放性、弹性和可控性提出了更高要求。
在这一变革节点上,红帽正试图用一整套以开源为核心的能力组合,为企业客户搭建一个“可以跑AI、跑传统业务、还能跑得长久”的未来平台。在2025年红帽全球峰会亚太媒体线上沟通会上,红帽管理层集体亮相,展示了其在人工智能推理、虚拟化整合、混合云统一管理等多个维度的技术演进和战略思考。
“红帽所做的一切,都是为了让客户拥有真正的选择与灵活性。”红帽首席执行官 Matt Hicks 表示,“我们交付的每一层都坚持开放与可信,使用户能够放心运行、灵活调整并持续创新。开放是默认,而非例外”。
红帽首席执行官 Matt Hicks
在AI领域,红帽推出了Red Hat AI Inference Server,内置了vLLM推理引擎。vLLM通过PagedAttention技术优化了GPU内存管理,支持长上下文窗口和多并发请求,显著提高了推理性能。此外,vLLM还支持连续批处理、量化模型和多种硬件平台,包括NVIDIA、AMD、Intel等。在最新的MLPerf 4.0基准测试中,红帽基于vLLM的推理平台在GPT-J和Llama2-70B模型上取得了领先的性能表现。
“开源只是一个许可证,除非有社区在背后支持。”红帽高级副总裁兼首席产品官Ashesh Badani强调,vLLM已成为开源推理标准,得到了Google、AMD、NVIDIA等合作伙伴的广泛支持。
值得一提的是,面对如NVIDIA Triton等已有方案,红帽并未采用封闭式对抗策略,而是通过开源推动协同生态。
正如红帽CEO Matt Hicks所说,开源不仅是技术选型,更是一种生态战略。vLLM正吸引两类关键参与者:一方面,越来越多模型提供方正在使用vLLM。;另一方面,各大加速器厂商,包括Intel、AMD、NVIDIA以及云厂商自研芯片团队,也在就vLLM展开合作。
vLLM如今已成为多数新模型首选的推理框架,哪怕是主推Triton的NVIDIA也在积极适配vLLM,以确保其硬件与最新模型兼容。vLLM凭借其开源特性与活跃社区,快速积累了开发者基础,GitHub星标、下载量和贡献者数量均处于高增长状态,事实上已成为行业默认选项。
红帽也在虚拟化领域持续发力,通过OpenShift Virtualization整合了KVM虚拟化功能。Ashesh Badani表示:“我们在KVM上深耕了八年,并于2020年把虚拟化功能整合进OpenShift,采用率随即飙升。”他还提到,AMD EPYC处理器上的OpenShift Virtualization后,TCO最高降低了77%。
“客户心态也变了。”红帽高级副总裁兼首席营收官Andrew Brown补充道:“去年他们还说‘无论如何都要甩掉VMware’;现在则是‘先把合适的工作负载迁到一个能用十年的平台’。”他强调,不少企业一用就是 15 年的旧虚拟化栈,因此红帽把迁移做成弹性方案:安全平台、周末切换、业务零中断。据了解,红帽每个周末都在为一家全球汽车制造商迁移工作负载——他们信任红帽,因为我们交付得好,也知道我们的平台能随着他们一起扩展。
与此同时,红帽还同步发布了一系列与硬件和AI生态相关的合作内容,进一步展示其“以生态促落地”的核心战略。面对AI算力多元化、部署环境复杂化的趋势,红帽选择将合作伙伴的能力深度融入其产品体系,从而实现开放与兼容性的最大化。这不仅让客户能够在当下更快、更稳地上线AI与核心应用,也为未来技术的持续演进预留了空间。
在具体落地层面,有三项合作最值得关注。
首先是在操作系统层面,RHEL实时内核与全新 image mode 镜像现已在 AWS、Azure、Google Cloud 和 Oracle Cloud 上架,并推出了面向ISV的“RHEL Partner Validation”验证计划。通过这一计划,合作伙伴可自助完成兼容性测试,并快速贴上“Validated on RHEL”的官方标签,从而显著加速解决方案的上市进程。
其次是OpenShift Virtualization 作为企业构建现代化基础架构的核心组件,已完成主流公有云平台(包括 AWS、Azure、Google Cloud、IBM Cloud 及 Oracle Cloud Infrastructure)的认证。这意味着客户在评估本地虚拟化替代方案时,能获得一个可随工作负载迁移而跨云统一的现代平台,并配套即插即用的生态集成能力,包括存储、备份与灾备、网络与监控等,显著降低跨环境运维复杂度。
最后是红帽面向AI落地关键环节推出了 Red Hat AI Inference Server。该产品内置轻量高效的 vLLM 引擎,首发即支持Google Cloud TPU 以及多种主流 CPU/GPU 架构(涵盖 Intel、AMD、ARM、Power 及 IBM Z)。这使得硬件合作伙伴只需针对一个推理引擎做性能优化,即可覆盖红帽生态下的广泛应用场景;而对最终用户而言,既可以部署开源大模型,也可以引入自研或商用闭源模型,真正实现“可组合、可控”的AI推理平台。
“从操作系统到底层推理引擎,我们都把合作伙伴选项融入产品本身。”红帽产品与技术高级副总裁 Ashesh Badani 表示,“这是我们生态策略的核心出发点——在不确定的技术环境中,为客户提供可以信赖的可用性、选择权和演进能力。”
在亚太市场,红帽看到了巨大的AI增长潜力。Andrew Brown指出,红帽通过提供平台自由、快速扩展和本地化支持,赢得了金融、电信、政府等行业客户的信任。
例如,红帽最近发布的 OpenShift Virtualization、RHEL 镜像模式(image mode)以及实时特性,让部署更容易,即使身处远离大型科技中心的地区,也能获得一致、安全、可靠的平台体验。
红帽合作伙伴生态系统成功高级副总裁Stefanie Chiras提到:“在此基础上,印度、中国和东南亚正出现AI井喷。当地ISV把AI深度融入产品,因此我们成立了面向亚太的共创团队,让他们的工程师与红帽专家并肩开发,再交由系统集成商交付给最终用户。”Stefanie Chiras还介绍了RHEL Partner Validation计划——ISV 可自行在 RHEL 上完成验证,承诺第三方支持,之后再决定是否申请完整认证。在节奏如此迅猛的市场,这为伙伴打通了快速上市通道,同时也向客户保证“它能在RHEL 上运行”,而红帽会全程背书。
在与超大规模云厂商的合作方面,红帽始终坚持开放生态战略。Stefanie Chiras强调:“我们的目标始终如一:把客户的选择权放在核心位置,并与每一家hyperscaler实现无缝集成。”据了解,红帽从上游社区做起,随后把成果延伸到 ISV、系统集成商以及云服务商。现在,RHEL 与 OpenShift 已能在 AWS、Azure、Google Cloud、IBM Cloud 直接订购;Ansible Automation Platform 则通过红帽与 IBM 渠道销售。AI 时代的到来,让这种合作更加紧密。
AI时代,“开放”不再局限于代码共享,更多涉及模型使用、数据治理与责任分工。当前不少模型以开源软件方式发布,采用兼容OSI的许可证,允许用户在保留权重的基础上进行微调与再分发。而无论是开放授权还是闭源协议,AI安全挑战始终一致:防止敏感内容输出、越狱提示绕过、防范对抗攻击与数据投毒。
“在这些议题上,开放社区和学术界的研究正快速推进,并成为推动解决方案演进的关键动力。”红帽首席技术官兼全球工程高级副总裁Chris Wright表示,仅仅一年前,客户在讨论AI时仍停留在“AI是否安全”这种模糊问题上,而如今,企业客户更多是从具体业务场景切入,围绕合规性与风险防护展开深入讨论。这种变化并非由对封闭模型的回归驱动,而是源自企业实践经验的积累。
例如,AI的普及速度堪比早期电子商务,横跨所有行业。所有突破性技术都会经历炒作曲线,但AI已经在解决切实的、数据驱动的问题。“红帽将通过两条路径原生支持AI Agent:不仅确保Agent运行时在OpenShift与RHEL上高效工作,还将Agent能力融入自家产品组合。”
随着AI加速落地,混合云的角色也发生了变化。Matt Hicks指出:“整个格局已经翻转。五年前的主旋律还是‘全部上某一种云’;两年前大家开始承认,除了上公有云,很多工作负载会继续留在本地,同时工厂、门店等边缘场景迅速崛起。AI进一步巩固和加速了这一趋势:AI需要在贴近应用场景的地方处理。”他强调,混合云已成为默认架构,谁能从核心到边缘把算力和数据统筹起来,谁就能释放巨大的价值。
写在最后
红帽的这些战略和技术进展,展示了其在AI、虚拟化和混合云领域的深厚积累和持续创新能力。通过与合作伙伴的紧密协作,红帽正引领企业客户迈向更加开放、灵活和高效的数字化未来。