狐狸club

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 137|回复: 0

【招商策略】从GTC 2024大会看AI产业投资方向——产业趋势研究系列报告(七)

[复制链接]
发表于 2024-3-24 08:16| 字数 169 | 显示全部楼层 |阅读模式

张   夏    S1090513080006

李昊阳    研究助理 

郭佳宜    研究助理

GTC 2024大会于3月18日至3月21日在加州圣何塞会议中心举行,围绕着“人工智能”主题,该会议组织了900场演讲、培训、研讨会和小组讨论。在大会上,NVIDIA创始人兼首席执行官黄仁勋在圣何塞SAP中心登台,发表GTC 2024的主题演讲《见证AI的变革时刻》,涉及AI芯片、AIGC、人形机器人以及智能汽车等热门方向。

核心观点


在过去的一年多时间里,由ChatGPT引领的AI热潮影响着各行各业,全球见证了AI产业的寒武纪式爆发。在AI基础设施方面,科技巨头不断升级服务器算力,力求以更快的速度和更低的成本训练和推理模型;在AI技术应用方面,ChatGPT、Sora等生成式AI带来了全新的产业机遇,人形机器人正成为多方竞逐的新赛道,而智能驾驶和智能家居等领域则趋向成熟化。


在人工智能产业飞速升级和迭代的场景下,以GTC 2024大会为基础,我们重点关注以下AI热门产业投资方向:


【AI芯片】NVIDIA发布Blackwell新架构,将两个Blackwell NVIDIA B200 Tensor Core GPU连接到NVIDIA Grace CPU。同时,NVIDIA还发布了其多节点、液冷、机架级系统NVIDIA GB200 NVL72,在单个机架中可实现720 petaflops的AI训练性能和1.4 exaflops的AI推理性能。此外,NVIDIA还推出了更强大的新一代AI超级计算机,由GB200 Grace Blackwell超级芯片提供支持的DGX SuperPOD,可用于处理万亿参数模型,实现超大规模生成式AI训练和推理工作负载。


【AIGC】NVIDIA发布生成式AI部署助手微服务NIM,NVIDIA NIM是一组经过优化的云原生微服务,旨在缩短上市时间并简化在云端、数据中心和GPU加速工作站上部署生成式AI模型。NIM支持社区模型等多种AI模型,可支持大语言模型等多个领域的AI用例,已被Cadence等领先的应用平台提供商所采用,AI微服务被认为是每个行业的企业成为AI公司的基石。


【人形机器人】NVIDIA正式发布世界首款人形机器人模型Project GR00T。为大规模训练GR00T,NVIDIA还开发了用于大规模强化学习的NVIDIA Isaac Lab,并建立了用于计算编排服务的NVIDIA OSMO。此外,NVIDIA发布了一款基于NVIDIA Thor系统级芯片SoC的新型人形机器人计算机Jetson Thor,该计算平台能够执行复杂任务并安全自然地实现人机交互。


【智能汽车】NVIDIA发布为生成式AI应用而设计的车载计算平台DRIVE Thor,该系统可以在集中式平台上提供功能丰富的驾驶舱功能,以及安全可靠的高度自动化和自动驾驶服务。多家领先的电动汽车制造商展示了由DRIVE Thor驱动的下一代AI车型;长途货运卡车、无人驾驶出租车、货物配送车等研发公司,也将利用NVIDIADrive Thor满足L4等高级别自动驾驶需求。


回顾整个GTC 2024大会,我们发现人工智能正在各行各业飞速发展,AI产业迎来爆发式增长。正如NVIDIA创始人黄仁勋的演讲主题所说,我们正在“见证AI的变革时刻”。


风险提示:宏观经济波动,主观预判存在偏差,产业发展不及预期。


目    录

01

GTC 2024 大会热点聚焦


GTC 2024大会于3月18日至3月21日在美国加州圣何塞会议中心举行,该会议组织了900场演讲、培训、研讨会和小组讨论,吸引了300家参展商以及来自195个国家/地区的31.9万线上参会者。北京时间2024年3月19日4时-6时,NVIDIA创始人兼首席执行官黄仁勋在美国加州圣何塞SAP中心登台,发表GTC 2024的主题演讲《见证AI的变革时刻》,涉及AI芯片、AIGC、人形机器人以及智能汽车等热门赛道。


在《见证AI的变革时刻》演讲中,黄仁勋提及以下热点:


▶ AI芯片


在GTC 2024大会上,NVIDIA发布了其Blackwell新架构。NVIDIA GB200 Grace Blackwell超级芯片通过900GB/s超低功耗的NVLink芯片间互连,将两个Blackwell NVIDIA B200 Tensor Core GPU连接到NVIDIA Grace CPU。同时,为了扩大Blackwell的规模,NVIDIA构建了NVLink Switch新芯片。NVLink Switch和GB200共同构成了NVIDIA GB200 NVL72的关键组件,NVIDIA GB200 NVL72是一种多节点、液冷、机架级系统,利用Blackwell为万亿参数模型提供强力计算,在单个机架中可实现720 petaflops的AI训练性能和1.4 exaflops的AI推理性能。此外,NVIDIA还推出了更强大的新一代AI超级计算机,由GB200 Grace Blackwell超级芯片提供支持的DGX SuperPOD,可用于处理万亿参数模型,并具有持续的正常运行时间,以实现超大规模生成式AI训练和推理工作负载。基于Grace Blackwell架构的DGX SuperPOD由8个或以上DGX GB200系统构建而成,这些系统通过NVIDIA Quantum InfiniBand网络连接,可在FP4精度下提供11.5 exaflops的AI超级计算能力和240 TB的快速内存,并可通过额外的机架来扩展性能。


▶ AIGC


在GTC 2024大会上,NVIDIA发布生成式AI部署助手微服务NIM,容器化服务助力AI+模型。NVIDIA NIM是一组经过优化的云原生微服务,旨在缩短上市时间并简化在云端、数据中心和GPU加速工作站上部署生成式AI模型。NIM微服务通过打包算法、系统和运行优化,并添加行业标准的API,简化了AI模型部署过程,这使得开发人员可以将NIM集成到现有的应用程序和基础设施中,而无需进行大量定制或专业知识。通过使用行业标准的API,将AI模型开发和打包的复杂性抽象化,从而扩大AI模型开发人员的范围。NIM支持多种AI模型,如社区模型、NVIDIA AI基金会模型和合作伙伴提供的定制AI模型;可支持多个领域的AI用例,包括大语言模型、视觉语言模型(VLMs)以及语音、图像、视频、3D、医学成像等模型。目前,NIM已被Cadence等领先的应用平台提供商所采用,AI微服务被认为是每个行业的企业成为AI公司的基石。


▶ 人形机器人


在GTC 2024大会上,NVIDIA正式发布世界首款人形机器人模型Project GR00T(Generalist Robot 00 Technology)。GR00T 是一个通用的基础模型,承诺在仿真和现实世界中改善人形机器人运行的学习系统,旨在推动公司在机器人技术和具身智能方面的突破。黄仁勋通过视频介绍了多个由GR00T驱动的人形机器人(包括来自Agility Robotics、Apptronik、Fourier Intelligence和Unitree Robotics的产品)如何完成各种任务,展示包括医疗和物流搬运、分拣用的机械臂,以及能够做家务、打架子鼓甚至模仿人类舞蹈动作的人形家用机器人。这些机器人基于大语言模型,能够理解人类的口头指令并做出回应,展现了其在多模态交互方面的潜力。此外,NVIDIA还发布了一款基于NVIDIA Thor系统级芯片(SoC)的新型人形机器人计算机Jetson Thor。Jetson Thor是一个全新的计算平台,能够执行复杂的任务并安全、自然地与人和机器交互,具有针对性能、功耗和尺寸优化的模块化架构。同时,该SoC包括基于 Blackwell 架构的下一代 GPU,其变压器引擎可提供800 teraflops 的8位浮点AI性能,以运行GR00T等多模式生成AI模型。


▶ 智能汽车


在GTC 2024大会上,NVIDIA揭示了DRIVE Thor的最新动态。DRIVE Thor是一个车载计算平台,专为生成式人工智能应用程序而设计,可以提供功能丰富的驾驶舱功能,以及安全可靠的高度自动化和自动驾驶。该技术结合了先进的驾驶辅助技术和车载信息娱乐系统,并且采用了新宣布的NVIDIA Blackwell GPU架构(拥有1,000 万亿次浮点运算性能以确保安全可靠的自动化机器),用于变压器和生成式人工智能工作负载。同时,多家领先的电动汽车制造商展示了由DRIVE Thor驱动的下一代AI车型,其中包括全球最大电动汽车制造商比亚迪,以及广汽埃安、小鹏、理想和极氪等众多中国车企。此外,长途货运卡车、无人驾驶出租车、货物配送车等研发公司,也将利用NVIDIADrive Thor满足L4等高级别自动驾驶需求,合作厂商包括:Nuro、Plus、Waabi、WeRide。


02

GTC 2024 大会热点延伸


1、AI芯片:NVIDIA发布Blackwell新架构,GB200超级芯片应用广泛


NVIDIA发布Blackwell新架构,GB200超级芯片降低训练成本。随着人工智能的不断发展和迭代,大模型参数量正在呈指数级增长,目前OpenAI最大的模型已经有1.8万亿个参数,需要吞吐数十亿token。即使是一块PetaFLOP级别的GPU,训练这样大的模型也需要1000年才能完成。因此,在GTC 2024大会上,NVIDIA创始人黄仁勋称,“通用计算已经失去动力,现在我们需要更大的模型,我们需要更大的 GPU,更需要将 GPU 堆叠在一起。这不是为了降低成本,而是为了扩大规模。Blackwell就是为了应对这一挑战而构建的。”


Blackwell架构以一位加州大学伯克利分校的数学家David Harold Blackwell命名,他专门研究博弈论和统计学,也是第一位入选美国国家科学院的黑人学者,NVIDIA GB200 Grace Blackwell超级芯片通过900GB/s超低功耗的NVLink芯片间互连,将两个Blackwell NVIDIA B200 Tensor Core GPU连接到NVIDIA Grace CPU。


性能与训练成本方面:


 Blackwell超级芯片拥有2080亿个晶体管,所有这些晶体管几乎同时访问与芯片连接的内存,在单芯片训练方面的FP8性能是其上一代架构的 2.5 倍,在推理方面的FP4性能是其上一代架构的 5 倍。


▶ 相较于Hopper GPU,Blackwell GPU的训练成本显著降低,如果要训练一个1.8万亿参数量的GPT模型,需要8000张Hopper GPU,消耗15兆瓦的电力,连续跑上90天;但如果使用Blackwell GPU,则只需要2000张,并且同样跑90天只需要消耗四分之一的电力。


GB200超级芯片应用广泛,显著提升AI训练性能和推理性能。为了扩大Blackwell的规模,NVIDIA构建了NVLink Switch新芯片,该芯片可以以每秒1.8TB的速度联接4个NVLink,并通过减少网络内流量来消除流量拥塞,NVLink Switch和GB200是构成NVIDIA GB200 NVL72的关键组件。NVIDIA GB200 NVL72是一种多节点、液冷、机架级系统,含60万个零件、重3000磅,利用Blackwell为万亿参数模型提供强力计算,在单个机架中可实现720 petaflops的AI训练性能和1.4 exaflops的AI推理性能。


此外,NVIDIA还推出了更强大的新一代AI超级计算机,由NVIDIA GB200 Grace Blackwell超级芯片提供支持的NVIDIA DGX SuperPOD,可用于处理万亿参数模型,并具有持续的正常运行时间,以实现超大规模生成式AI训练和推理工作负载。基于Grace Blackwell架构的DGX SuperPOD由8个或以上DGX GB200系统构建而成,这些系统通过NVIDIA Quantum InfiniBand网络连接,可在FP4精度下提供11.5 exaflops的AI超级计算能力和240 TB的快速内存,并可通过额外的机架来扩展性能。其中,每个DGX GB200系统搭载36个NVIDIA GB200超级芯片,包含36颗NVIDIA Grace CPU和72颗NVIDIA Blackwell GPU,这些超级芯片通过第五代NVIDIA NVLink连接成一台超级计算机。


NVIDIA深耕人工智能算力提升,不断更新迭代GPU架构:


▶ Volta架构是2017年发布的NVIDIA GPU的第六代架构,Volta架构专注于深度学习和人工智能应用,并引入了Tensor Core;


▶ Turing架构是2018年发布的NVIDIA GPU的第七代架构,Turing架构引入了实时光线追踪(RTX)和深度学习超采样(DLSS)等重要功能。


▶ Ampere架构是2020年发布的NVIDIA GPU的第八代架构,在计算能力、能效和深度学习性能方面都有重大提升。Ampere架构的GPU采用了多个流多处理器(SM)和更大的总线宽度,提供了更多的CUDA Core和更高的频率,同时,Ampere架构引入了第三代Tensor Core,提供更强大的深度学习计算性能。此外,Ampere架构的GPU还具有更高的内存容量和带宽,适用于大规模的数据处理和机器学习任务。


▶ Hopper架构是2022年发布的NVIDIA GPU的第九代架构,相较于Ampere,Hopper架构支持第四代Tensor Core,并且采用能力更强的新型流式处理器,在计算能力、深度学习加速和图形功能方面带来新的创新和改进。


基于不同架构基础,NVIDIA GPU性能持续升级:


A100是2020年发布的首次采用Ampere架构的GPU。它的性能提升得益于改进的Tensor核心、更多的CUDA核心数量、更强的内存和最快的2 Tbps内存带宽。A100支持多实例GPU功能,允许单个A100 GPU分割成多个独立的小GPU,这大大提升了云和数据中心的资源分配效率。同时,A100还支持第二代NVLink技术,实现快速的GPU与GPU通信,提升大型模型的训练速度。此外,A100还增加了功能强大的新第三代Tensor Core,同时增加了对DL和HPC数据类型的全面支持,以及新的稀疏功能,可将吞吐量进一步翻倍。A100在AI推理任务方面表现突出,在语音识别、图像分类、推荐系统、数据分析和大数据处理、科学计算场景都有优势,在基因测序和药物发现等高性能计算场景也都属于优势领域。


H100采用Hopper架构,使用专为NVIDIA定制的TSMC 4N工艺制造,拥有800亿个晶体管,能处理最具挑战性的AI工作负载和大规模数据处理任务。与A100相比,H100的FP8计算速度提升六倍,达到4 petaflops;内存增加50%,使用HBM3高带宽内存,带宽可达3 Tbps,外部连接速度几乎达到5 Tbps。此外,新的Transformer引擎使模型转换器训练速度提升高达六倍。也就是说,H100在处理大型AI模型和更复杂的科学模拟方面表现更佳,是高级对话式AI和实时翻译等实时响应型AI应用的更优选择。总的来说,相较于A100,基于Hopper架构的H100在AI训练和推理速度、内存容量和带宽以及处理大型和复杂的AI模型方面有显著的性能提升,适用于对性能有更高要求的AI和科学模拟任务。


半定制化FPGA和定制化ASIC提高AI芯片灵活性。按照技术架构,AI芯片可分为GPU、FPGA和ASIC;按照网络位置,AI芯片可分为云端芯片和边缘芯片;按照应用目标,AI芯片可分为训练芯片和推理芯片。


▶ GPU芯片可以提供更高的计算能力和效率,同时保持较低的功耗,特别适用于执行并行的计算任务。目前,GPU已被广泛应用于人工智能、机器学习等许多领域。


▶ FPGA是一种可编程的逻辑芯片,这种芯片有着灵活的结构,允许用户通过编程来改变其功能和性能。因此,FPGA可以在硬件设计周期较短的情况下实现功能丰富、可定制化的电路,使其更适合于应对设计迭代和快速更新,通常用于嵌入式系统、高性能计算、数字信号处理等领域,也被广泛应用于视频编解码、机器学习、人工智能、传感器处理和射频通信等复杂和高速处理领域。


▶ ASIC是一种专门为特定应用程序而设计的定制化芯片,相对于通用处理器,ASIC可以提供更高的性能和更低的功耗,可以用于各种不同的应用程序,显著提高特定应用程序的性能,如机器学习、人工智能、加密货币挖掘等。但是,ASIC的设计相对较复杂,需要一系列的工艺和流程,并且需要大量的研发投入。同时,由于ASIC芯片无法轻易地重新编程或改变其功能,也让其相对较难以适应不同应用的需求。


FPGA全球市场竞争格局稳定,ASIC国产替代趋势明显。随着人工智能的技术进步和应用升级,市场对于人工智能算力的需求不断增长,这一趋势推动了AI芯片行业的发展。据预测,全球AI芯片市场规模将以29.3%的复合增长率增长,并于2026年达到920亿美元。2022年,全球FPGA芯片市场呈“两大两小”格局,AMD和Intel两家公司的市场份额分别为52%和35%,Lattice和Microsemi的市场份额各占5%。可以看出,AMD和Intel双寡头主导FPGA市场,全球市场竞争格局相对稳定。ASIC不同于GPU和FPGA,目前尚未形成明显的市场竞争格局,国产厂商在技术端持续发力。国外厂商Google、Intel等公司在ASIC领域已有成型产品,而国产厂商海思、遂原科技和寒武纪的产品在整体性能上也与谷歌相近。因此,未来国产厂商有望在ASIC领域创造技术优势,突破国外厂商在AI芯片的垄断格局。


2、AIGC:NVIDIA加速生成式AI普及,AIGC服务引起全领域变革


生成式AI部署助手微服务NIM发布,容器化服务助力AI+模型。NVIDIA NIM是一组经过优化的云原生微服务,旨在缩短上市时间并简化在云端、数据中心和GPU加速工作站上部署生成式AI模型。NIM微服务通过打包算法、系统和运行优化,并添加行业标准的API,简化了AI模型部署过程,这使得开发人员可以将NIM集成到现有的应用程序和基础设施中,而无需进行大量定制或专业知识。通过使用行业标准的API,将AI模型开发和打包的复杂性抽象化,从而扩大AI模型开发人员的范围。NIM提供的一些Nvidia微服务将包括用于定制语音和翻译模型的 Riva、用于路由优化的cuOpt以及用于天气和气候模拟的Earth-2模型。NIM通过针对每个模型和硬件设置进行优化的推理引擎,为加速基础设施提供最佳的延迟和吞吐量,这降低了推理工作负载的成本,并改善了最终用户的体验。

NIM支持多种应用,微服务合作伙伴生态共建。NIM支持多种AI模型,如社区模型、NVIDIA AI基金会模型和合作伙伴提供的定制AI模型;可支持多个领域的AI用例,包括大语言模型、视觉语言模型(VLMs)以及语音、图像、视频、3D、医学成像等模型。NIM专为可移植性和控制而构建,可实现模型在各种基础设施上部署,从本地工作站到云端到本地数据中心,这包括NVIDIA DGX、NVIDIA DGX Cloud、NVIDIA认证系统、NVIDIA RTX工作站和个人电脑。生成式AI助手NIM已被Cadence、CrowdStrike、SAP、ServiceNow等领先的应用平台提供商所采用,黄仁勋称这些与NVIDIA的合作伙伴生态系统共同创建的容器化AI微服务是每个行业的企业成为AI公司的基石。


聊天机器人普及加速,助力PC端生成式AI功能。最新的开发者工具和应用ChatRTX正在加速PC和工作站上的AI普及。Chat with RTX或简称ChatRTX,包括工具和软件开发。工具包通过检索增强生成和NVIDIA TensorRT-LLM 加速技术,可为RTX助力的Windows PC带来运行于本地的生成式AI功能。用户可以快速轻松地将本地文件作为数据集连接到开放式大语言模型 (例如Mistral或Llama 2),以便快速查询与上下文相关的答案。除了目前对文本的支持外,ChatRTX很快还会添加对语音、图像和新模型的支持。此外,Whisper是一种AI自动语音语言识别系统,用户将能够通过它与ChatRTX进行交谈。在该功能推出后,ChatRTX将能够“理解”口述语言并以文本提供回应。NVIDIA AI Workbench是一款易于使用的开发者工具包,可用于管理AI模型定制和优化工作流,该工具包现已向RTX开发者全面推出。


RTX大语言模型赋能行业,AIGC表现亮眼。NVIDIA已通过TensorRT推动剪映AI艺术字功能上线,并正在通过RTX AI平台加速生成式AI在剪映产品功能中的应用。TensorRT可将DaVinci Resolve和Topaz应用中的转描、降噪、超分辨率和视频防抖等AI特效的速度提高至原来的2倍。Blackmagic Design和Topaz Labs等杰出创意应用开发商也已将RTX AI加速集成到各自的软件中。医学研究人员正在使用教科书和其他医学数据训练大语言模型,以期改善患者护理。零售商正在利用由大语言模型赋能的聊天机器人,为用户提供出色的客户支持体验。金融分析师正在利用大语言模型记录财报电话会议及其他重要会议,并总结会议内容。


AIGC直触物理世界,医疗应用场景不断开拓。生成式 AI最大的影响将体现在医疗领域,NVIDIA 已经涉足成像系统、基因测序仪器,并与领先的手术机器人公司合作。NVIDIA BioNeMo新增生成式AI工具包,全新BioNeMo基础模型可以分析DNA序列、预测由药物分子引起的蛋白质形态改变,以及根据RNA确定细胞功能。新增的这些基础模型包括:1)初次推出的基因组学模型DNABERT:该模型基于DNA序列进行训练,可用于预测基因组特定区域的功能、分析基因突变和变异的影响等。2)scBERT该模型基于单细胞RNA测序数据进行训练,用户能够将其应用于下游任务,例如预测基因敲除的影响或识别细胞类型(如神经细胞、血细胞或肌肉细胞)。3)EquiDock:它可以预测两种蛋白质相互作用过程的 3D 结构,这对了解药物分子是否有效至关重要。NVIDIA发布了20+新的微服务,使全球医疗企业能够在任何地方、任何云上利用生成式 AI 的最新进展。


Omniverse™ Cloud以API形式提供,OpenUSD与Apple Vision Pro碰撞。NVIDIA Omniverse™是一个计算平台,使个人和团队能够基于三维工作流和应用程序开发通用场景描述。借助五个全新Omniverse Cloud应用编程接口(API),开发者能够轻松地将Omniverse的核心技术直接集成到现有的数字孪生设计与自动化软件应用中,既可单独使用,也可组合使用。NVIDIA还推出了一个基于Omniverse Cloud API的新软件框架,允许开发者将OpenUSD场景创建工具发送到NVIDIA图形交付网络(GDN),这种基于云的解决方案允许实时渲染直接流式传输到Apple Vision Pro,而不会影响大型数据集细节内容,工作流还引入了一种混合渲染技术,将设备上的本地渲染和远程渲染组合在一起。该移动性的Omniverse Cloud API的软件框架使“元宇宙”的进一步构建成为可能。


6G研究平台催化无线电子技术研究新方法,AI推动无线通信。全新6G研究平台为研究人员提供一套全面套件,以推进无线接入网络(RAN)技术的人工智能。NVIDIA 6G 研究云平台由以下三个部分组成:1)适用于6G的Aerial Omniverse数字孪生:一个参考应用和开发者示例,可实现从单塔到城市规模的完整6G系统的物理精确模拟。借助Omniverse Aerial数字孪生,研究人员将能够根据特定地点的数据模拟并构建基站算法,并通过实时训练模型来提高传输效率。2)Aerial CUDA加速的无线接入网络:一个软件定义的全RAN协议堆栈,为研究人员实时自定义、编程和测试6G网络带来极大的灵活性。3)Sionna神经无线电框架:该框架可与PyTorch和TensorFlow等主流框架无缝集成,利用NVIDIA GPU生成、获取海量数据并训练AI和机器学习(ML)模型。NVIDIA 6G研究云平台具有开放、灵活和互联的特征,将数万亿台设备与云基础设施连接起来,为建立一个以自动驾驶汽车、智能空间以及各种扩展现实和沉浸式教育体验与协作机器人为依托的超级智能世界奠定基础。


3、人形机器人:NVIDIA进军人形机器人领域,重磅推出 Project GR00T


NVIDIA进军人形机器人领域,重磅推出 Project GR00T。3月19日GTC 2024大会上,NVIDIA正式发布世界首款人形机器人模型Project GR00T(Generalist Robot 00 Technology)。GR00T是一个通用的基础模型,承诺在仿真和现实世界中改善人形机器人运行的学习系统,旨在推动公司在机器人技术和具身智能方面的突破。通过在NVIDIA GPU加速的仿真中训练,GR00T使人形机器人能够从少数人类示范中进行模仿学习,并利用NVIDIA Isaac Lab进行强化学习,还能从视频数据生成机器人动作。GR00T模型将多模式指令和过去的交互作为输入,并产生机器人执行的动作。


人形机器人通用基础模型,彰显多模态交互潜力。在主题演讲中,黄仁勋通过视频介绍了多个由GR00T驱动的人形机器人(包括来自 Agility Robotics、Apptronik、Fourier Intelligence和Unitree Robotics的产品)如何完成各种任务,展示包括医疗和物流搬运、分拣用的机械臂,以及能够做家务、打架子鼓甚至模仿人类舞蹈动作的人形家用机器人。这些机器人基于大语言模型,能够理解人类的口头指令并做出回应,展现了其在多模态交互方面的潜力。黄仁勋在大会主题演讲中表示:“开发通用人形机器人基础模型是当今AI领域中最令人兴奋的课题之一。我们正在汇集各种赋能技术,致力于在人工通用机器人领域实现突破。”


Isaac平台重大更新,搭建协调机器人训练仿真器。为大规模训练GR00T,NVIDIA开发了用于大规模强化学习的NVIDIA Isaac Lab,并建立了用于计算编排服务的NVIDIA OSMO。


其中,Isaac Lab是一个GPU加速、性能优化的轻量级应用,基于NVIDIA Isaac Sim(受益于Omniverse Nucleus和Omniverse Connectors,可以在通用场景描述OpenUSD中协作构建,共享和导入环境和机器人模型)而构建,为客户提供基于人工智能的设计、测试和训练机器人更快更好的方式;具备真实模拟、多应用模块化体系结构、无缝连接和互操作性等优势。


OSMO则是一个云原生的工作流编排平台,可供轻松地在分布式环境中扩展工作负载,从本地到私有和公共云;其提供了一个单一的界面,用于调度复杂的多阶段、多容器异构计算工作流,包括协调跨NVIDIA DGX系统的训练、NVIDIA OVX系统的模拟,以及NVIDIA IGX和NVIDIA AGX系统的硬件在环验证;具备开发人员友好的工作流规范、地点无关部署、数据沿袭、资产可追溯、安全服务等优势。OSMO负责合成数据生成(SDG)、DNN的训练验证、强化学习、在SIL或HIL中对机器人进行(再)仿真、对SIM或真实数据的进行感知评估等具体工作。


NVIDIA 还发布了 Isaac Manipulator和Isaac Perceptor等一系列机器人预训练模型、库和参考硬件。Isaac Manipulator为机械臂提供了卓越的灵活性和模块化 AI 功能,并提供了一系列强大的基础模型和GPU加速库。它提供了高达80倍的路径规划加速,零样本感知提高了效率和吞吐量,使开发者能够实现更多新的机器人任务的自动化。早期生态系统合作伙伴包括安川电机、泰瑞达旗下子公司优傲、PickNik Robotics、Solomon、READY Robotics和Franka Robotics。Isaac Perceptor提供了多摄像头和3D环绕视觉功能,这些功能正越来越多地被制造业和物流业中的自主移动机器人所采用,以提高效率和更好地保护工人,同时降低错误率和成本。早期采用者包括ArcBest、比亚迪和凯傲集团等,它们的目标是为物料搬运等操作带来新的自主化水平。


NVIDIA专为人形机器人打造全新计算平台。NVIDIA还发布了一款基于NVIDIA Thor系统级芯片(SoC)的新型人形机器人计算机Jetson Thor。Jetson Thor是一个全新的计算平台,能够执行复杂的任务并安全、自然地与人和机器交互,具有针对性能、功耗和尺寸优化的模块化架构。该SoC包括一个带有transformer engine的下一代 GPU,其采用NVIDIA Blackwell架构,可提供每秒800万亿次8位浮点运算AI性能,以运行GR00T等多模态生成式AI模型。凭借集成的功能安全处理器、高性能CPU集群和100GB以太网带宽,大大简化了设计和集成工作。


机器人有望成为人工智能重要载体,NVIDIA已成立新的研究部门专攻具身智能。早在当地时间2月23日,NVIDIA高级研究科学家、AI代理计划负责人Jim Fan透露NVIDIA将成立GEAR。GEAR全称为通用具身智能体研究Generalist Embodied Agent Research,由Jim Fan和Yuke Zhu教授领导,旨在构建适用于虚拟与物理世界的具身智能体的基础模型,致力于实现跨多模态、多场景的智能应用。Jim Fan宣称,2024年是机器人之年、游戏人工智能之年和模拟技术之年。


GEAR研究团队专注于四大关键领域:


▶ 多模态基础模型:开发基于大规模互联网数据源训练的LLMs(大型语言模型),用于规划与推理,视觉-语言模型以及世界模型,旨在打通不同模态信息间的壁垒;


▶ 通用型机器人研究:研发能够适应复杂环境、实现稳健移动与灵巧操作的机器人模型与系统,以提升其在各类实际场景下的普适性与效能;


▶ 虚拟世界中的基础智能体:创建能够在多种游戏与模拟环境中自主探索并持续自我提升能力的大型动作模型,为虚拟世界的智能交互设定新标准;


▶ 模拟与合成数据技术:构建大规模学习所需的仿真基础设施及合成数据流水线,为智能体的学习过程提供有力支持。NVIDIA致力于发挥机器人、游戏AI和仿真技术之间相互促进的作用,一次性解决机器人基础模型、游戏基础模型和生成式模拟。


当前GEAR的主要项目亮点为:Eureka(通过编码大型语言模型实现人类水平的奖励设计)、Voyager(采用大型语言模型驱动的开放式具身智能体)、VIMA(利用多模态提示实现通用机器人操作能力)和Minedojo(借助互联网规模知识库构建开放式具身智能体)。


巨头持续下场,人形机器人催化不断。人形机器人正成为多方竞逐未来产业的新赛道。此前,当地时间2月25日,特斯拉公司分享了一段最新视频,记录其正在研发的Optimus人形机器人在测试场地内行走时所展现的流畅步行能力。2月24日,NVIDIA与微软、OpenAI、三星等其他大型科技公司将投资类人机器人初创公司Figure AI,以期为人工智能寻找新的应用。该公司在一轮融资中筹集约6.75亿美元,交易前估值约为20亿美元。值得一提的是,当地时间3月13日,Figure发布了自己第一个OpenAI大模型加持的机器人demo。视频显示Figure 01可以为听从人类的命令,递给人类苹果、将黑色塑料袋收拾进框子里、将杯子和盘子归置放在沥水架上。该机器人技术原理类似于Google在2023年3月发布的PaLM-E和RT-1的pipeline组合,而非Google于2023年7月发布的端到端模型 RT-2。Figure致力于开发能够取代人类进行体力劳动的人形机器人,大力推进具身智能,将人形机器人带进生活。此外,在GTC 2024大会上,NVIDIA宣称与迪士尼研究中心展开了紧密合作,共同推进人形机器人项目的研发进程。迪士尼研究中心的机器人项目旨在打造一款能够学习、适应并表现出类似人类行为的人形机器人。通过运用NVIDIA的Isaac Sim机器人仿真器进行训练,这些机器人可以在虚拟环境中逐步掌握行走技巧,进而提升其灵活性和准确性。迪士尼生产的使用相关NVIDIA芯片的小型机器人Orange和Green也来到现场,黄仁勋介绍,它们正是在Isaac平台里学会了走路。


具身智能不应建立在孤岛之上,NVIDIA积极寻求长期合作伙伴。NVIDIA正在为领先的人形机器人公司开发一个综合的AI平台,如1X Technologies、Agility Robotics、Apptronik、波士顿动力公司、Figure AI、傅利叶智能、Sanctuary AI、宇树科技和小鹏鹏行等。在GTC大会上,与黄仁勋一同亮相的人形机器人有Figure 01、宇树-H1、Apptronik、Digit、Sanctuary AI的Phoenix、1X、傅利叶GR-1、波士顿动力Altas、小鹏PX5等国内外知名人形机器人。现场还展示了由Jetson驱动、在ISSAC Sim中学习行走的迪士尼BDX机器人。Agility Robotics联合创始人兼首席机器人官Jonathan Hurst表示:“我们正处于历史的转折点,像Digit这样以人为中心的机器人将永远改变劳动力市场。现代AI将加速发展,为Digit这样的机器人铺平道路,在日常生活的各个方面帮助人类。我们很高兴能与NVIDIA合作,投资于计算、仿真工具、机器学习环境和其他必要的基础设施,让机器人真正融入人们的日常生活。”


国内方面,聚焦机器人和具身智能,具体而言,重点关注:亿嘉和作为国内AI+机器人的领先厂商,基于ISSAC Sim开发,实现大模型人机交互;九号公司与NVIDIA合作开发自主机器人平台;步科股份轮式机器人受益,NVIDIA ISSAC Sim扩大机器人底盘的应用等。


4、智能汽车:NVIDIA重新定义DRIVE Thor,赋能全景智能交通运输需求


NVIDIA更新DRIVE Thor动态,采用Blackwell GPU架构。在GTC 2024大会中,黄仁勋揭示了NVIDIA DRIVE Thor的最新动态,该技术结合了先进的驾驶辅助技术和车载信息娱乐系统,并且采用了新宣布的NVIDIA Blackwell GPU架构(拥有1,000 万亿次浮点运算性能以确保安全可靠的自动化机器),用于变压器和生成式人工智能工作负载;DRIVE Thor预计最早将在明年投入生产的车辆中使用。


NVIDIA重新定义 DRIVE Thor,增加对大语言模型和生成式 AI 的底层支持。DRIVE Thor是一种为生成式AI应用而设计的车载计算平台,在汽车行业内至关重要。该系统是DRIVE Orin的后继者,可以在集中式平台上提供功能丰富的驾驶舱功能,以及安全可靠的高度自动化和自动驾驶服务,是全新的自动驾驶平台。这款下一代AV平台将集成针对变压器、LLM和生成式AI工作负载设计的全新NVIDIA Blackwell架构。NVIDIA汽车副总裁吴新宙表示:“加速计算导致了变革性的突破,包括生成式AI,正在重新定义自主性和全球交通运输行业。”“DRIVE Orin继续是当今智能车队首选的AI汽车计算机,但现在我们看到移动领袖正在展望未来,将NVIDIA DRIVE Thor引入他们的下一代AI启用车辆路线图。” 与初次亮相时宣称的技术能力和参数相比,DRIVE Thor已经发生了一些非常明显的调整。


从定位上来说,NVIDIA DRIVE Thor定位为专为汽车行业中日益重要的生成式AI应用而打造的车载计算平台。它搭载了专门为Transformer、大语言模型(LLM)和生成式AI工作负载而打造的全新NVIDIA Blackwell架构。随着大语言模型和生成式AI的爆发,以及这些技术在车端的逐步应用,NVIDIA也将DRIVE Thor的产品定位进行了微调,增加了对大语言模型和生成式AI的底层支持。更重要的是,从算力性能来看,根据NVIDIA发布的最新信息,DRIVE Thor的性能为1000 TFLOPS——然而,作为对比,根据NVIDIA在2022年9月发布的信息,DRIVE Thor的浮点运算性能为2000 TFLOPS。对此,有行业人士评论称:DRIVE Thor的算力出现了明显的缩水。


NVIDIA DRIVE Thor或彻底改变汽车行业格局,加速计算打造下一代AI车型。NVIDIA DRIVE Thor 被 NVIDIA 称为“将彻底改变汽车行业的格局,开创生成式 AI 定义驾驶体验的时代”的产品。在GTC上,几家领先的电动汽车制造商正在揭示他们由DRIVE Thor驱动的下一代AI车队:


▶ 全球最大的电动汽车制造商比亚迪正在将与NVIDIA的持续合作从汽车延伸到云端。除了在DRIVE Thor上构建其下一代EV车队外,比亚迪还计划利用NVIDIA的AI基础设施进行基于云的AI开发和培训技术,以及利用NVIDIA Isaac和NVIDIA Omniverse平台开发虚拟工厂规划和零售配置器的工具和应用。


▶ 广汽埃安旗下品牌昊铂宣布已选择DRIVE Thor作为其下一代电动汽车的车载计算平台,新车型将于2025年开始生产,并具有4级驾驶能力。昊铂目前正在使用NVIDIA DRIVE Orin为其旗舰型号Hyper GT提供动力,该型号具有先进的2+级驾驶功能。


▶ 此外,小鹏汽车也宣布将使用NVIDIA DRIVE Thor平台作为其下一代电动汽车车队的人工智能大脑。下一代车载计算机将为这家电动汽车制造商的专有XNGP AI辅助驾驶系统提供动力,实现自动驾驶和停车功能、驾驶员和乘客监控以及其他功能。这些电动汽车制造商加入了Li Auto和ZEEKR的行列,将在DRIVE Thor上构建未来的汽车路线图。


NVIDIA DRIVE Thor为长途卡车、送货车和机器人出租车提供驱动力,赋能全景智能交通运输需求。除了乘用车之外,DRIVE Thor还满足了其他领域的多样化需求,这些领域需要高性能计算和人工智能来确保安全可靠的驾驶操作,包括货车运输、机器人出租车、货物配送车辆等:


▶ Nuro致力于为商用和消费级车辆开发4级自动驾驶技术,选择DRIVE Thor作为Nuro Driver的动力来源;Nuro Driver为集成自动驾驶系统,由Nuro的专有AI-first软件和传感器与NVIDIA汽车级别的计算和网络硬件配对而成,该系统将在今年晚些时候开始测试。


▶ Plus作为全球提供自动驾驶软件解决方案的供应商,宣布其未来几代 4 级解决方案 SuperDrive将在汽车级别、符合安全标准的DRIVE Thor集中式计算机上运行;Plus将利用DRIVE Thor的计算性能在其自动驾驶系统中理解卡车周围的世界,并做出安全的驾驶决策。Waabi正在构建自动驾驶的人工智能,利用DRIVE Thor 推出市场上第一个生成式AI动力的自动卡车解决方案;该公司计划将DRIVE Thor集成到其Waabi Driver中以在规模上驱动安全可靠的自动卡车。


▶ 文远知行WeRide与一级合作伙伴联想车载计算合作,正在为基于DRIVE Thor构建的商业应用创建几种4级自动驾驶解决方案,该解决方案集成在联想首款自动驾驶域控制器AD1中,将广泛用于以城市为中心的用例,在这些用例中,功能安全、冗余安全设计、融合和可扩展性是必须的。


03

小结


2022年11月30日,ChatGPT3.5横空出世,让人类体验到了人工智能的无限魅力。在过去的一年多时间里,由ChatGPT引领的AI热潮影响着各行各业,全球见证了AI产业的寒武纪式爆发。在AI基础设施方面,科技巨头不断升级服务器算力,力求以更快的速度和更低的成本训练和推理模型;在AI技术应用方面,ChatGPT、Sora等生成式AI带来了全新的产业机遇,人形机器人正成为多方竞逐的新赛道,而智能驾驶和智能家居等领域则趋向成熟化。


在人工智能产业飞速升级和迭代的场景下,以GTC 2024大会为基础,我们重点关注以下AI热门赛道:

【AI芯片】据预测,全球AI芯片市场规模将以29.3%的复合增长率增长,并于2026年达到920亿美元。按照技术架构,AI芯片可分为GPU、FPGA和ASIC。GPU巨头NVIDIA发布Blackwell新架构,将两个Blackwell NVIDIA B200 Tensor Core GPU连接到NVIDIA Grace CPU。同时,NVIDIA还发布了其多节点、液冷、机架级系统NVIDIA GB200 NVL72,在单个机架中可实现720 petaflops的AI训练性能和1.4 exaflops的AI推理性能。此外,NVIDIA还推出了更强大的新一代AI超级计算机,由GB200 Grace Blackwell超级芯片提供支持的DGX SuperPOD,可用于处理万亿参数模型,实现超大规模生成式AI训练和推理工作负载。2022年,全球FPGA芯片市场呈“两大两小”格局,AMD和Intel双寡头主导FPGA市场,全球市场竞争格局相对稳定。ASIC不同于GPU和FPGA,目前尚未形成明显的市场竞争格局,国产厂商在技术端持续发力。未来国产厂商有望在ASIC领域创造技术优势,突破国外厂商在AI芯片的垄断格局。

【AIGC】AIGC将在能够触及到的所有行业引起变革,应用场景涵盖从硬件到软件,在医疗、通信、汽车驾驶、游戏、商贸零售中发挥重要作用。NVIDIA发布生成式AI部署助手微服务NIM,NVIDIA NIM是一组经过优化的云原生微服务,旨在缩短上市时间并简化在云端、数据中心和GPU加速工作站上部署生成式AI模型。NIM支持社区模型等多种AI模型,可支持大语言模型等多个领域的AI用例,已被Cadence等领先的应用平台提供商所采用,AI微服务被认为是每个行业的企业成为AI公司的基石。在对话大模型上,AI加速普及聊天机器人的PC端功能,通过检索增强生成和NVIDIA TensorRT-LLM 加速技术,用户可以快速轻松地将本地文件作为数据集连接到开放式大语言模型(例如Mistral或Llama2),以便快速查询与上下文相关的答案。

【人形机器人】人形机器人正成为多方竞逐未来产业的新赛道,NVIDIA与微软、OpenAI、三星等其他大型科技公司将投资类人机器人初创公司Figure AI,以期为人工智能寻找新的应用。同时,GTC 2024大会上,NVIDIA正式发布世界首款人形机器人模型Project GR00T。为大规模训练GR00T,NVIDIA还开发了用于大规模强化学习的NVIDIA Isaac Lab,并建立了用于计算编排服务的NVIDIA OSMO。此外,NVIDIA发布了一款基于NVIDIA Thor系统级芯片SoC的新型人形机器人计算机Jetson Thor,该计算平台能够执行复杂任务并安全自然地实现人机交互,SoC包含带有transformer engine的GPU,采用NVIDIA Blackwell架构。

【智能汽车】AI大模型升级改变智能汽车行业格局,赋能全景智能交通运输需求。NVIDIA发布为生成式AI应用而设计的车载计算平台DRIVE Thor,该系统可以在集中式平台上提供功能丰富的驾驶舱功能,以及安全可靠的高度自动化和自动驾驶服务。在GTC大会上,多家领先的电动汽车制造商展示了由DRIVE Thor驱动的下一代AI车型,其中包括全球最大电动汽车制造商比亚迪,以及广汽埃安、小鹏、理想和极氪等众多中国车企。此外,长途货运卡车、无人驾驶出租车、货物配送车等研发公司,也将利用NVIDIADrive Thor满足L4等高级别自动驾驶需求,合作厂商包括:Nuro、Plus、Waabi、WeRide。


回顾整个GTC 2024大会,我们发现人工智能正在各行各业飞速发展,AI产业迎来爆发式增长。正如NVIDIA创始人黄仁勋的演讲主题所说,我们正在“见证AI的变革时刻”。


04

风险提示


1、主观预判的偏差

2、技术进步不及预期

3、宏观环境的不确定性


-  END  -

相 关 报 告


【招商策略】2024年值得关注的7个产业趋势和8个政策主题——2024年产业趋势及主题展望


【招商策略】新科技周期下的产业投资框架——科技革命投资范式方法论(一)


【招商策略】AI+下半场:以大模型为入口向终端应用扩散——产业趋势研究系列报告(六)

【招商策略】AI时代看智能汽车,汽车智能化势不可挡——产业趋势研究系列报告(五)

【招商策略】Office接入大语言模型,GPT-4开启AI新纪元——产业趋势研究系列报告(四)


特别提示

本公众号不是招商证券股份有限公司(下称“招商证券”)研究报告的发布平台。本公众号只是转发招商证券已发布研究报告的部分观点,订阅者若使用本公众号所载资料,有可能会因缺乏对完整报告的了解或缺乏相关的解读而对资料中的关键假设、评级、目标价等内容产生理解上的歧义。

本公众号所载信息、意见不构成所述证券或金融工具买卖的出价或征价,评级、目标价、估值、盈利预测等分析判断亦不构成对具体证券或金融工具在具体价位、具体时点、具体市场表现的投资建议。该等信息、意见在任何时候均不构成对任何人的具有针对性、指导具体投资的操作意见,订阅者应当对本公众号中的信息和意见进行评估,根据自身情况自主做出投资决策并自行承担投资风险。

招商证券对本公众号所载资料的准确性、可靠性、时效性及完整性不作任何明示或暗示的保证。对依据或者使用本公众号所载资料所造成的任何后果,招商证券均不承担任何形式的责任。

本公众号所载内容仅供招商证券股份客户中的专业投资者参考,其他的任何读者在订阅本公众号前,请自行评估接收相关内容的适当性,招商证券不会因订阅本公众号的行为或者收到、阅读本公众号所载资料而视相关人员为专业投资者客户。


一般声明

本公众号仅是转发招商证券已发布报告的部分观点,所载盈利预测、目标价格、评级、估值等观点的给予是基于一系列的假设和前提条件,订阅者只有在了解相关报告中的全部信息基础上,才可能对相关观点形成比较全面的认识。如欲了解完整观点,应参见招商证券网站(http://www.cmschina.com/yf.html)所载完整报告。

本公众号所载资料较之招商证券正式发布的报告存在延时转发的情况,并有可能因报告发布日之后的情势或其他因素的变更而不再准确或失效。本资料所载意见、评估及预测仅为报告出具日的观点和判断。该等意见、评估及预测无需通知即可随时更改。

本公众号所载资料涉及的证券或金融工具的价格走势可能受各种因素影响,过往的表现不应作为日后表现的预示和担保。在不同时期,招商证券可能会发出与本资料所载意见、评估及预测不一致的研究报告。招商证券的销售人员、交易人员以及其他专业人士可能会依据不同的假设和标准,采用不同的分析方法而口头或书面发表与本资料意见不一致的市场评论或交易观点。

本公众号及其推送内容的版权归招商证券所有,招商证券对本公众号及其推送内容保留一切法律权利。未经招商证券事先书面许可,任何机构或个人不得以任何形式翻版、复制、刊登、转载和引用,否则由此造成的一切不良后果及法律责任由私自翻版、复制、刊登、转载和引用者承担。


5877.jpg
狐狸club温馨提醒
本文采集自微信公众号
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 收藏帖子 搜索

网站状态|免责声明|Archiver|手机版|小黑屋|网站地图|club·befox·net

GMT+8, 2024-11-24 01:13 , Processed in 0.082158 second(s), 14 queries , Gzip On, Redis On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表