专注于数字技术的商业观察者
登录×
科技
2024-03-19

AI,正在推开未来的大门

时间: 2024-03-19 编辑:

自ChatGPT发布以来,AI再次成为人们关注的焦点,AI技术本身也始终处于全力高速发展状态。以往,无论是Op...

自ChatGPT发布以来,AI再次成为人们关注的焦点,AI技术本身也始终处于全力高速发展状态。以往,无论是OpenAI发布新一代语言模型GPT-4,Google发布TensorFlow 3.0、Meta AI发布MetaNLP和Meta ImageNet、IBM发布新一代量子计算机,还是NVIDIA发布Hopper架构GPU、马斯克开源Grok-1……人们不仅看到了AI从概念到技术的飞速发展,也感受到了那些不断得到验证的、AI即将对各个行业、全球经济以及社会即将产生的重大影响——AI似乎正在根据人们的想象力和创造力,在构建一个只属于人类的未来。

2024年3月18日,GTC 2024 大会在美国召开,作为AI产业阵营中最有力的技术提供者之一,此次大会自然吸引了全球的目光,而英伟达和黄仁勋也没有让人们失望。

 

超级芯片

不知道有没有想过,为什么AI这个并非全新的概念在今天得到了如此高速的发展?是今天的科学家比过去的科学家聪明,可以开发出更高效的算法?还是如今的数据比以往的数据更有价值,能够训练出更有价值的大数据模型?当然,也许有这些原因,但是更重要的一点是:今天的IT计算能力远超前辈,让我们拥有了更强大的对数据的处理能力——GPU和其他高性能计算硬件的出现和普及为AI算法的训练和推理提供了强大的计算支持;大规模并行计算能力的提升加速了模型的训练速度和效率,促进了AI技术的发展,因此才会让模型训练更有效率,让科学家有机会不断验证和优化自己的算法,让AI能够真正从理论探讨走向现实应用。从这个角度说,提供AI算力的芯片是真正推动AI产业发展的基础动力,因此英伟达在其中的作用不言而喻。

事实上,自从2012年,AlexNet在ImageNet竞赛上取得了突破性成绩,标志着深度学习和人工智能重新崛起开始,英伟达的GPU计算技术就被广泛应用于深度学习算法的训练和推理,和人工智能技术研发当中,其英伟达的GPU产品也开始引领AI算力前行:从2015年推出的NVIDIA GeForce GTX TITAN X到2016年推出的Pascal架构、2017年发布的Volta架构、2018年的Turing架构、2020年的Ampere架构、2022年的Hopper架构……英伟达事实上一直通过不断发展GPU技术推动AI产业高速发展。

“我们需要更大的 GPU。”在本次大会上,黄仁勋说:“加速计算已到达临界点,通用计算已失去动力,我们需要一种全新的计算方式 —— 由此我们才可以继续扩展,继续降低计算成本,并在保证可持续性的同时继续进行越来越多的计算。与通用计算相比,加速计算使每个行业都可以大幅提速。”他边说,边从口袋里掏出一块全新的芯片,并将其与Hopper 芯片并排举起,后者显得小了一些。这就是此次会议的重头:Blackwell 芯片。

黄仁勋告诉与会者:新架构以一位加州大学伯克利分校的数学家 David Harold Blackwell 而命名——其专门研究博弈论和统计学,是第一位入选美国国家科学院的黑人学者。

 “三十年来,我们一直深耕加速计算领域,力求实现像深度学习和 AI 这样的变革性突破。生成式 AI 是我们这个时代的决定性技术,Blackwell GPU 是推动新一轮工业革命的引擎。通过与全球最具活力的企业合作,我们将实现 AI 赋能各行各业的承诺。”黄仁勋表示,新的Blackwell架构将超越两年前推出的 NVIDIA Hopper 架构。

具英伟达提供的资料显示:凭借六项变革性的技术,Blackwell 能够在拥有高达 10 万亿参数的模型上实现 AI 训练和实时 LLM 推理,这些技术包括:全球最强大的芯片、第二代 Transformer 引擎、第五代 NVLink、RAS 引擎、安全AI和解压缩引擎。因此Blackwell 在单芯片训练方面的 FP8 性能是其上一代架构的 2.5 倍,在推理方面的 FP4 性能是其上一代架构的 5 倍。由于它具有第五代 NVLink 互连,速度是 Hopper 的两倍,并且可扩展至 576 个 GPU。

作为最新的“超级芯片”,NVIDIA GB200 Grace Blackwell 超级芯片通过 900GB/s 超低功耗的 NVLink 芯片间互连,将两个 Blackwell NVIDIA B200 Tensor Core GPU 连接到 NVIDIA Grace CPU。黄仁勋举起一块带有系统的电路板说道:“这台计算机是同类计算机中的第一台,能够在这么小的空间容纳如此多的计算量。由于它的内存是连贯的,感觉就像一个幸福的大家庭一起开发一个应用程序。”

而为了获得最高的 AI 性能,基于GB200的系统可以与NVIDIA Quantum-X800 InfiniBand和Spectrum-X800以太网平台连接,这些平台可提供速度高达 800Gb/s 的高级网络。“这样我们可以大量地节省能源、网络带宽量和时间。”黄仁勋表示,“未来将是可生成的,这就是为什么这是一个全新的行业。我们的计算方式有本质差异,所以 NVIDIA 为生成式AI 时代打造了一款全新处理器。”

同样基于Blackwell,NVIDIA还构建了一款名为NVLink Switch的新芯片:其每个芯片可以以每秒1.8 TB的速度连接四个NVLink,并通过减少网络内流量来消除流量拥塞。

NVIDIA Switch和GB200被黄仁勋称为是 “一个巨型 GPU” ,也是多节点、液冷、机架级系统NVIDIA GB200 NVL72 的关键组件:其利用 Blackwell 为万亿参数模型提供强力计算,在单个机架中即可实现 720 petaflops的AI 训练性能和 1.4 exaflops 的 AI 推理性能。黄仁勋在介绍NVIDIA GB200 NVL72 时说道:“此时此刻,地球上也许只有三台百亿亿次浮点运算(exaflop)机器。而这是一个单一机架中的1个百亿亿次浮点运算AI 系统。”

除了NVIDIA GB200 NVL72,英伟达还推出了更强大的新一代 AI 超级计算机: 由 NVIDIA GB200 Grace Blackwell 超级芯片提供支持的 NVIDIA DGX SuperPOD——这是一个采用新型高效液冷机架规模架构,采用 NVIDIA DG GB200 系统构建,可在 FP4 精度下提供 11.5 exaflops 的 AI 超级计算能力和 240 TB 的快速内存,并可通过额外的机架进行扩展。将被用于处理万亿参数模型,并具有持续的正常运行时间,以实现超大规模生成式 AI 训练和推理工作负载。

“未来,数据中心将成为 AI 工厂。AI 工厂的使命是创造收入,同时也创造智能。”黄仁勋说,“整个行业都在为Blackwell 做准备。”

 

构建AI能力价值链

之所以说英伟达对全球AI产业产生了无可替代的价值,不仅仅是因为其在GPU领域不断寻求技术的突破,更是因为其自从选定AI赛道以来,一直不断向外辐射自身的AI能力,将自身在GPU领域取得的价值,不断通过周边的合作伙伴和用户传递AI技术创新价值,从而形成自身独特的市场号召力和影响力。

在本次大会上,英伟达就推出了数十项企业级生成式 AI 微服务和以API形式提供Omniverse Cloud——通过前者,企业可以利用这些微服务在自己的平台上创建和部署定制应用,同时保留对知识产权的完整所有权和控制权;后者,则是借助五个全新Omniverse Cloud应用编程接口(API),开发者能够轻松地将Omniverse的核心技术直接集成到现有的数字孪生设计与自动化软件应用中,或是集成到用于测试和验证机器人或自动驾驶汽车等自主机器的仿真工作流中。

从技术实践角度看,英伟达此次推出的云原生微服务目录在 NVIDIA CUDA平台上开发,其中就包括 NVIDIA NIM 微服务,可适用于 NVIDIA 及合作伙伴生态系统中 20 多个热门的 AI 模型进行推理优化。此外,用户现能够以NVIDIA CUDA-X 微服务的形式使用 NVIDIA 加速软件开发套件、库和工具,用于检索增强生成(RAG)、护栏、数据处理、HPC 等。NVIDIA 还发布了 20 多项医疗 NIM 和 CUDA-X 微服务。

与此同时,这些精心挑选的微服务为 NVIDIA 全栈计算平台增添了新的一层,连接起了由模型开发人员、平台提供商和企业组成的 AI 生态系统,使其能够通过标准化的路径来运行针对 NVIDIA CUDA 安装基础(在云、数据中心、工作站和 PC 中的数以亿计的 GPU)优化的定制 AI 模型。齐总,包括 Adobe、Cadence、CrowdStrike、Getty Images、SAP、ServiceNow 和 Shutterstock 在内的诸多领先应用、数据和网络安全平台提供商已经率先使用了 NVIDIA AI Enterprise 5.0 中提供的这些全新 NVIDIA 生成式 AI 微服务。

“未来我们如何构建软件?你不太可能从头开始编写,也不太可能写一大堆 Python 代码或类似的东西,很可能你只需要组建一支 AI 团队就够了。”黄仁勋表示,未来的用户可以使用现成的 NIM 微服务,或者 NVIDIA 可以为之构建专属的AI 和 AI 助手,为特定公司所需的模型专业技能提供专门训练,以助力您创建宝贵的新服务。“成熟的企业平台坐拥数据金矿,这些数据可以转化为生成式 AI 助手。我们与合作伙伴生态系统一起创建的这些容器化 AI 微服务,是各行业企业成为 AI 公司的基石。”他说。

与微服务灵活的自我构建应用相比,Omniverse Cloud类似搭积木的方式,技术门槛似乎更低,也更适合那些业务更成熟稳定,且对AI应用方向和目标更加清晰的行业和领域。

此次,英伟达推出的五个全新Omniverse Cloud API包括:生成OpenUSD数据的全光线追踪NVIDIA RTX™渲染的USD Render、让用户能够修改OpenUSD数据并与之交互的USD Write、支持场景查询和交互式场景的USD Query、追踪USD变化并提供更新信息的USD Notify,以及用于连接用户、工具和世界,实现跨场景协作的Omniverse Channel。

“所有制造出来的产品都将拥有数字孪生。Omniverse是一个可以构建并操作物理真实的数字孪生的操作系统。Omniverse和生成式AI都是将价值高达50万亿美元的重工业市场进行数字化所需的基础技术。”黄仁勋介绍说,目前一些全球大型工业软件制造商正在将Omniverse Cloud API加入到其软件组合中,包括 Ansys、Cadence、达索系统旗下3DEXCITE品牌、Hexagon、微软、罗克韦尔自动化、西门子和Trimble等。

其中,作为一直强调工业领域数字孪生的头部工业软件提供商西门子,在其Teamcenter X中采用Omniverse Cloud API:通过将Teamcenter X与Omniverse API的连接,不仅打通了设计数据到NVIDIA生成式AI API之间的通路,且允许在该应用内直接使用Omniverse RTX进行渲染。“通过NVIDIA Omniverse API,西门子能够利用生成式AI赋能客户,使其符合物理学的数字孪生变得更具沉浸感。这将帮助所有人在实际建造前,对下一代产品、制造流程和工厂进行虚拟设计、建造和测试。”西门子总裁兼首席执行官Roland Busch通过英伟达的新闻稿表示。

事实上,利用英伟达企业级生成式 AI 微服务和以API形式提供Omniverse Cloud尝试在自身产品中融入更多AI价值的厂商还有很多:例如在医疗行业,全新医疗微服务套件中的 NVIDIA NIM 可以为医学影像、医疗科技、药物研发和数字健康等领域日益增加的模型提供经过优化的推理,这些模型可用于生成式生物学和化学以及分子预测工作。再如Hippocratic AI 正在开发针对特定任务的生成式 AI 医疗代理,其由该公司专注于安全的医疗大语言模型(LLM)与NVIDIA Avatar 云引擎(ACE)微服务相连并将使用 NVIDIA NIM 实现低延迟推理和语音识别,这些 AI 医疗代理与患者对话,完成预约、术前提醒、出院后随访等工作;Flywheel 基于云的集中式平台为生物制药公司、生命科学组织、医疗提供商和专业医学中心提供支持,帮助他们识别、整理和训练医学影像数据,从而缩短获得洞察的时间;工程仿真软件软件则Ansys则使用Omniverse Cloud API实现数据互操作性和RTX可视化;Cadence也正在其Cadence® Reality Digital Twin Platform中采用Omniverse Cloud API,使企业能够在构建实物之前,先在数字孪生中对数据中心进行设计、模拟和优化;达索系统正在使用Omniverse Cloud API和Shutterstock 3D AI服务以支持其3DEXCITE内容创作应用的生成式叙事;建筑和地理空间技术领导者Trimble计划利用英伟达提供的API,使交互式NVIDIA Omniverse RTX Viewer能够与Trimble模型数据结合使用;全球数字现实技术领导者Hexagon将通过USD的互操作性,将NVIDIA Omniverse Cloud API与其现实捕捉传感器和数字现实平台整合,为客户提供超逼真的模拟和可视化功能;致力于工业自动化和数字化转型的罗克韦尔自动化将使用 Omniverse Cloud API助力RTX赋能的可视化……英伟达所驱动和提供的AI能力,正在各个行业当中,呈现出越来越重要的价值和作用。

 

写在最后

应该说,此次GTC 2024 大会之所以吸引了众多的关注,很大的一个原因,就是AI技术本身的发展,正在从技术走向实践的关键节点,因此,无论是IT技术从业者还是各国行业的技术人员,都希望能够从中获得真正的启发,找到自己未来向AI进阶的方向和方法。

Project GR00T 是一种多模态人形机器人通用基础模型,作为机器人的大脑,使它们能够学习技能来解决各种任务。

GTC 2024 大会围绕AI技术、AI能力和AI实践,事实上为各个层级的用户都提供了应用AI的各种可能性:除了超级芯片和各种应用AI的微服务、API外,英伟达还发布发布人形机器人通用基础模型 Project GR00T,以及一款基于NVIDIA Thor 系统级芯片(SoC)的新型人形机器人计算机 Jetson Thor,并对 NVIDIA Isaac™ 机器人平台进行了重大升级,包括生成式 AI 基础模型和仿真工具,以及 AI 工作流基础设施;还有旨在帮助研究人员和开发人员在化学、生物学、材料科学等关键科学领域的量子计算研究中取得突破的CUDA-Q 量子计算平台项微服务,甚至还发布了Earth-2 气候数字孪生云平台,以实现天气和气候的模拟和可视化达到前所未有的精度……英伟达没有给出具体行业的具体解决方案,但是每个行业的从业者似乎都可以从中找到一些应用AI的灵感和切入点。

“计算机图形学、物理学和AI 是 NVIDIA 的灵魂所在,生成式 AI 时代一切改变都有可能发生。”黄仁勋说。

标签:
版权声明:本文版权归数字商业时代所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。