专注于数字技术的商业观察者
登录×
公司
2024-05-14

红帽:当混合云遇到“混合AI”

时间: 2024-05-14 编辑:

过去三十多年,开源技术不仅推动了快速创新,还大幅降低了IT成本并降低了创新门槛。从21世纪初通过RHEL...

过去三十多年,开源技术不仅推动了快速创新,还大幅降低了IT成本并降低了创新门槛。从21世纪初通过RHEL提供开放式企业Linux平台,到通过红帽OpenShift推动容器和Kubernetes成为开放式混合云和云原生计算的基础,红帽几乎一直引领着这一潮流。

然而,实施AI策略远不止选择一个模型那么简单。企业需要专业知识来为特定场景调整适当的模型,并且还必须处理AI实施过程中的显著成本难题。

IDC指出,要想成功利用人工智能,企业需要对许多现有应用和数据环境进行现代化改造,消除现有系统和存储平台之间的障碍,提高基础架构的可持续性,并在云端、数据中心和边缘之间谨慎选择部署不同工作负载的位置。对红帽而言,这意味着人工智能平台必须具备灵活性,以支持企业在采用人工智能的过程中取得进展,并且适应需求和资源的变化。

2024年5月8日,在红帽在全球峰会上宣布正式推出红帽企业Linux AI(RHEL AI)。RHEL AI RHEL AI沿用开放式AI创新方法,整合了IBM研究院的开源授权Granite大型语言模型(LLM)系列、基于大规模对话机器人对齐(LAB)方法的InstructLab模型对齐工具,以及通过InstructLab项目实施的社区驱动模型开发方法。

目前,该解决方案被封装成一个优化的、可启动的RHEL镜像,用于在混合云环境中部署单个服务器,并已集成到OpenShift AI中。

“AI领域的发展速度非常快。目睹这项技术演变到一个月前我们决定将其作为峰会重点公告的中心,这真是令人兴奋。”红帽总裁兼CEO Matt Hicks日前在接受笔者的采访时透露,将这项技术引入开源和商业模型,一切始于IBM研究院的一次会议,原因在于这是一种应对客户在微调过程中遇到的挑战的方法,使用合成数据增强技术以保持数据贡献小型化,这使得数据块足够小,便于协作。“通过红帽的视角看到这样令人印象深刻的技术,并意识到我们可以围绕它建立一个社区,将全球创新带入一个类似Hugging Face聚集了大量数据集的领域,这是一个非常棒的时刻。”

从最初的想法到现在,仅仅几个月的时间,我们已经看到其相关的概念验证和模式在不同场景中的成功应用和扩展。

更为值得一提的是,随着各组织在RHEL AI上试验和调整新AI模型,他们可以通过红帽OpenShift AI来扩展这些工作流,OpenShift AI将包含RHEL AI,并利用OpenShift的Kubernetes引擎在大规模训练和部署AI模型,以及OpenShift AI的集成MLOps能力来管理模型的生命周期。

Matt Hicks强调,红帽的传统平台(如RHEL和OpenShift)与人工智能驱动型项目(如RHEL AI和OpenShift AI)将会分别扮演着不同的角色为企业客户赋能:RHEL AI的主要目标是利用硬件加速,在未来几年内覆盖NVIDIA、AMD、Intel等各类硬件,进行模型的训练和运行;现有的混合平台主要关注的是应用程序的生命周期,通常从Linux开始,然后转向OpenShift、中间件和运行时环境;RHEL AI更专注于为大型语言模型创建业务安全、管理生命周期和提供可预测性,并能够对其进行修改。这是一个专为引入新类别硬件而设计的堆栈,类似于红帽推出RHEL时所做的工作,最终目标是支持大型语言模型,而不仅仅是传统的Python、Perl和PHP应用程序。

对于如何在传统和云原生平台以及对人工智能的需求之间保持平衡,Matt Hicks的观点是,传统平台专注于应用程序运行时,具有长寿命和稳定的二进制接口兼容性,而红帽的人工智能驱动型项目则围绕大型语言模型和逐步将模型部署到生产环境中。虽然它们看起来截然不同,但所需的核心技能却是相似的。同样的内核工程师、用户空间工程师和OpenShift工程师,他们一直在优化我们的CPU驱动解决方案,现在正利用他们的专业知识来增强我们的人工智能能力。这种技能的无缝整合确保我们能够有效地满足传统和人工智能应用的硬件需求。

“这些事情将有很多交叉点,因为人工智能并不是孤立存在的——它只是你的应用程序、你的员工、开发人员使用的一种工具。因此,我们将看到传统设置与人工智能应用程序之间产生许多交叉链接和整合。”Matt Hicks举例补充说,IBM的watsonx.ai企业工作室建立在红帽OpenShift AI上,RHEL AI一旦在OpenShift AI中可用,将带来额外的企业AI开发、数据管理、模型治理和性价比改进的能力。

事实上,许多客户尝试过使用规模较小的模型进行微调和训练,但往往成效不佳。这些模型通常在公共云中运行,参数量超过一万亿。尽管这些模型开箱即用能完成许多任务,但它们的运行和训练成本非常高。当受限于云环境时,有很多场景是难以应对的。

“例如,我会在笔记本电脑上运行模型以提高生产力,而我的数据从未离开过备。这些模型无论用于编程还是写作,都能增强我的工作效率,但它们无法在云工作流中得到增强。”Matt Hicks总结说,无论是在笔记本电脑、工厂边缘还是汽车中,混合功能对于充分发挥AI的潜力都是关键,必须改进这些小型模型,使客户能够针对他们的具体应用场景,更好地适应实际任务。

红帽的不同之处在于其对运行位置的核心灵活性,致力于支持小型的开源模型进行混合部署。客户可以在公共云或您的数据中心训练这些模型,并在边缘部署它们。这种方法与在应用领域的信念一致。

此外,红帽的平台设计为支持所有主要GPU提供商,包括NVIDIA、AMD和Intel。这种能力类似于Linux早期,当时针对红帽企业版Linux编译的应用可以在不同的硬件平台之间移动。核心价值旨在为客户今天和将来使用的硬件以及模型运行的位置提供灵活性,从公共云到边缘。

写在最后

“我们是否能够充分发挥开源在这个领域的影响力,这是我一直在思考的问题。我从事开源工作的职业生涯始于此,很多的直觉和对能力的理解都来源于此。”Matt Hicks认为,在研究界和学术界构建的人工智能作为红帽拥有的开源方法的完美补充,红帽不能错失这个机会,需要找到一个成功且对贡献者可持续的微妙平衡。“就像我们对待Linux一样找到平衡,这对我们和世界都是有益的。我喜欢这个角色,我每天都在从红帽身边的人中学习。我对调整公司以充分利用我们看到的机会感到非常兴奋。”

标签:
版权声明:本文版权归数字商业时代所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。