NVIDIA GTC 2022 发布了啥

2022-12-05 18:38:43 浏览数 (1)

NVIDIA DRIVE Thor

NVIDIA不按套路出牌,取消了之前规划的车端芯片Orin的继任者Atlan,而让雷神重磅出场,其性能相当剽悍,单颗性能达到2,000 TOPS(FP8)是当前SOC orin的8倍。而Atlan规划是1000 TOPS(INT8).也让其他玩家慌得一比。另外一个玩家Qualcommon在随后的“汽车投资者日“上表示其推出了”业界首个集成式汽车超算SOC"Snapdragon Ride Flex.然而并没有宣布其计算能力。

为了几年,Qualcommon和Nvidia在汽车芯片一定会短兵相接,而确定胜负的战场一定是中国市场。

雷神将智能功能(包括自动驾驶和辅助驾驶、停车、驾驶员和乘员监控、数字仪表盘、车载信息娱乐 (IVI) 和后座娱乐)整合到一个架构中,以提高效率和降低整体系统成本。雷神可以同时运行QNX、linux/android 系统。

汽车大芯片是趋势(自动驾驶、座舱)集成一起,业界有能力做好软硬件的公司不多看好高通。NVIDIA在座舱有很长的路要走。

H100 Tensor Core GPU

国内已经被禁止购买此产品

NVIDIA H100 Tensor Core GPU已全面投入生产,合作伙伴计划在 10 月推出基于 NVIDIA Hopper 架构的第一波产品和服务。

H100 采用 800 亿个晶体管构建,并受益于强大的新 Transformer 引擎和 NVIDIA NVLink 互连,可加速最大的 AI 模型,如高级推荐系统和大型语言模型,并推动以下领域的创新:对话式人工智能和药物发现。

H100 GPU 由 NVIDIA 加速计算数据中心平台的多项关键创新提供支持,包括第二代多实例 GPU、机密计算、第四代 NVIDIA NVLink 和 DPX 指令。

NVIDIA AI Enterprise 软件套件的五年许可现在包含在 H100 中,适用于主流服务器。这优化了人工智能工作流程的开发和部署,并确保组织能够访问构建人工智能聊天机器人、推荐引擎、视觉人工智能等所需的人工智能框架和工具。

NVIDIA 大型语言模型云 AI 服务

NVIDIA NeMo 大型语言模型服务和 NVIDIA BioNeMo LLM 服务,大型语言模型云 AI 服务已发布。这项新的 LLM 服务使开发人员能够轻松调整 LLM 并部署定制的 AI 应用程序,用于内容生成、文本摘要、聊天机器人、代码开发、蛋白质结构和生物分子特性预测等。

NeMo LLM 服务允许开发人员使用一种称为在 NVIDIA 管理的基础架构上快速学习的训练方法,快速定制大量预训练的基础模型。NVIDIA BioNeMo 服务是一种云应用程序编程接口 (API),它将 LLM 用例扩展到语言和科学应用程序之外,以加速制药和生物技术公司的药物发现。

NVIDIA Jetson Orin Nano

NVIDIA 宣布扩展 NVIDIA Jetson 产品线,推出新的 Jetson Orin Nano 系统级模块,其性能比上一代产品高出 80 倍,为入门级边缘 AI 和机器人技术树立了新标准。

NVIDIA Jetson 系列现在涵盖六个基于 Orin 的生产模块,支持全方位的边缘 AI 和机器人应用程序。这包括以最小的 Jetson 外形提供高达每秒 40 万亿次操作 (TOPS) 的 AI 性能的 Orin Nano,以及为高级自主机器提供 275 TOPS 的 AGX Orin。

Jetson Orin 具有 NVIDIA Ampere 架构 GPU、基于 Arm 的 CPU、下一代深度学习和视觉加速器、高速接口、快速内存带宽和多模式传感器支持。这种性能和多功能性使更多客户能够将曾经看似不可能的产品商业化,从部署边缘 AI 应用程序的工程师到构建下一代智能机器的机器人操作系统 (ROS) 开发人员。

英伟达 IGX 边缘人工智能

NVIDIA IGX 平台今天发布。IGX 用于高精度边缘 AI,为制造、物流和医疗保健等敏感行业带来先进的安全性和主动安全性。过去,此类行业需要针对特定用例定制的昂贵解决方案,但 IGX 平台易于编程和配置,以满足不同的需求。

IGX 在高度监管的物理世界工厂和仓库中为制造和物流提供了额外的安全层。对于医疗边缘 AI 用例,IGX 提供安全、低延迟的 AI 推理,以满足临床对医疗程序(例如机器人辅助手术和患者监测)的各种仪器和传感器的即时洞察力的需求。

NVIDIA IGX 平台——确保边缘 AI 的合规性

NVIDIA IGX 平台是硬件和软件的强大组合,其中包括 NVIDIA IGX Orin,这是一款功能强大、紧凑且节能的人工智能超级计算机,适用于自主工业机器和医疗设备。

IGX Orin 开发工具包将于明年初提供给企业原型和测试产品。每个套件都具有用于高性能 AI 计算的集成 GPU 和 CPU,以及用于提供具有超低延迟和高级安全性的高性能网络的 NVIDIA ConnectX-7 SmartNIC。

还包括一个强大的软件堆栈,具有关键的安全和安全功能,可以针对不同的用例进行编程和配置。这些功能使企业能够在人类和机器人并排工作的环境中增加主动安全,例如仓库地板和手术室。

IGX 平台可以运行 NVIDIA AI Enterprise 软件,优化 AI 工作流程的开发和部署,并确保组织能够访问必要的 AI 框架和工具。NVIDIA 还与 Canonical、Red Hat 和 SUSE 等操作系统合作伙伴合作,为该平台提供全栈、长期支持。

为了在工业和医疗环境中管理 IGX,NVIDIA Fleet Command 允许组织从中央云控制台部署安全的无线软件和系统更新。

元宇宙计算平台

NVIDIA Omniverse Cloud 是Nvidia的第一个软件和基础设施即服务产品。Omniverse 是一套云服务,供艺术家、开发人员和企业团队在任何地方设计、发布、操作和体验元宇宙应用程序。

使用 Omniverse Cloud,个人和团队可以一键体验设计和协作处理 3D 工作流程的能力,而无需任何本地计算能力。机器人专家可以训练、模拟、测试和部署支持 AI 的智能机器,提高可扩展性和可访问性。自动驾驶汽车工程师可以生成基于物理的传感器数据并模拟交通场景,以测试各种道路和天气条件,以实现安全的自动驾驶部署。

Omniverse Cloud 的早期支持者包括 RIMAC Group、WPP 和 Siemens。

Omniverse 云服务

Omniverse 云服务在 Omniverse 云计算机上运行,这是一个计算系统,由用于图形和物理模拟的 NVIDIA OVX、用于高级 AI 工作负载的 NVIDIA HGX 和 NVIDIA 图形交付网络 (GDN) 组成,这是一个全球规模的分布式数据中心网络,用于交付边缘的高性能、低延迟元节图形。

Omniverse 云服务包括:

  • Omniverse Nucleus Cloud — 为 3D 设计师和团队提供协作和访问基于通用场景描述 (USD) 的共享 3D 场景和数据的自由。Nucleus Cloud 使任何设计人员、创建者或开发人员几乎可以在任何地方保存更改、共享、进行实时编辑和查看场景中的更改。
  • Omniverse App Streaming — 使没有 NVIDIA RTX™ GPU的用户能够流式传输 Omniverse 参考应用程序,例如 Omniverse Create,这是一款供设计师和创作者构建基于美元的虚拟世界的应用程序;Omniverse View,一个用于审查和批准的应用程序;和 NVIDIA Isaac Sim,用于训练和测试机器人。
  • Omniverse Replicator——使研究人员、开发人员和企业能够生成物理上准确的 3D 合成数据,并轻松构建自定义合成数据生成工具,以加速感知网络的训练和准确性,并轻松与 NVIDIA AI 云服务集成。
  • Omniverse Farm — 使用户和企业能够利用多个云计算实例来扩展 Omniverse 任务,例如渲染和合成数据生成。
  • NVIDIA Isaac Sim — 一种可扩展的机器人仿真应用程序和合成数据生成工具,可为逼真、物理上准确的虚拟环境提供支持,以开发、测试和管理基于 AI 的机器人。
  • NVIDIA DRIVE Sim — 一个端到端模拟平台,用于运行大规模、物理上精确的多传感器模拟,以支持从概念到部署的自动驾驶汽车开发和验证,提高开发人员的生产力并加快上市时间。

OVX 计算服务

NVIDIA 宣布推出第二代 NVIDIA OVX,由 NVIDIA Ada Lovelace GPU 架构和增强的网络技术提供支持,提供实时图形、人工智能和数字孪生模拟功能。

新的 NVIDIA OVX 系统旨在使用领先的 3D 软件应用程序构建 3D 虚拟世界,并在 NVIDIA Omniverse Enterprise 中运行沉浸式数字孪生模拟,这是一个可扩展的端到端平台,使企业能够构建和运行 Metaverse 应用程序。

NVIDIA OVX 是一种计算系统,旨在为大型 Omniverse 数字孪生提供动力。它将交付给宝马集团和捷豹路虎等公司的一些世界上最先进的设计和工程团队。

为新的 OVX 系统提供动力的是 NVIDIA L40 GPU,它同样基于 NVIDIA Ada Lovelace GPU 架构,为构建复杂的工业数字双胞胎带来了最高水平的功率和性能。

L40 GPU 的第三代 RT 核心和第四代 Tensor 核心将为在 OVX 上运行的 Omniverse 工作负载提供强大的功能,包括加速的光线追踪和路径追踪材质渲染、物理精确模拟和逼真的 3D 合成数据生成。L40 还将在主要 OEM 供应商的 NVIDIA 认证系统服务器中提供,以支持数据中心的 RTX 工作负载。

NVIDIA OVX 还包括 NVIDIA ConnectX-7 SmartNIC,提供增强的网络和存储性能以及逼真的数字孪生所需的精确时序同步。ConnectX-7 支持每个端口上的 200G 网络和快速在线数据加密,以加快数据移动并提高数字孪生的安全性。

GeForce RTX 40

首先是发布由 ADA Lovelace 提供支持的下一代 GeForce RTX 40 系列 GPU,旨在为游戏玩家和创作者提供极致性能。新的旗舰型号 RTX 4090 GPU 的性能是其前身的 4 倍。

作为第一款基于全新 NVIDIA Ada Lovelace 架构的 GPU,RTX 40 系列在性能和效率方面实现了飞跃,代表了实时光线追踪和神经渲染的新时代,它使用 AI 生成像素。RTX 40 系列 GPU 具有一系列新技术创新,包括:

  • 具有高达 83 teraflops 着色器能力的流式多处理器 - 是上一代产品的 2 倍。
  • 第三代 RT 内核具有多达 191 个有效光线追踪 teraflops — 是上一代的 2.8 倍。
  • 第四代 Tensor Cores 具有高达 1.32 Tensor petaflops — 是使用 FP8 加速的上一代的 5 倍。
  • 着色器执行重新排序 (SER) 通过动态重新调度着色工作负载以更好地利用 GPU 资源来提高执行效率。SER 将光线追踪性能提高了 3 倍,游戏帧率提高了 25%。
  • 性能提高 2 倍的 Ada 光流加速器允许 DLSS 3 预测场景中的运动,使神经网络能够在保持图像质量的同时提高帧速率。
  • 架构改进与定制的 TSMC 4N 工艺技术紧密结合,可实现高达 2 倍的电源效率飞跃。
  • 双 NVIDIA 编码器 (NVENC) 可将导出时间缩短一半,并支持 AV1。NVENC AV1 编码已被 OBS、Blackmagic Design、DaVinci Resolve、Discord 等采用。

DLSS 3 生成整个帧以加快游戏速度

用于游戏和创意应用程序的深度学习超级采样神经图形技术的下一次革命。人工智能驱动的技术可以为极快的游戏生成整帧,通过允许 GPU 独立生成整帧来克服游戏中 CPU 性能的限制。

该技术正在向 Unity 和 Unreal Engine 等流行的游戏引擎推出,并得到了领先游戏开发商的支持,即将推出超过 35 款游戏和应用程序。

NVIDIA RTX 6000 工作站 GPU

NVIDIA RTX 6000 Ada Generation GPU 提供实时渲染、图形和 AI。设计师和工程师可以推动基于仿真的高级工作流程来构建和验证更复杂的设计。艺术家可以将讲故事提升到一个新的水平,创造更引人入胜的内容并构建身临其境的虚拟环境。科学家、研究人员和医疗专业人员可以在他们的工作站上使用超级计算能力来加速拯救生命的药物和程序的开发。性能是上一代 RTX A6000 的 2-4 倍。

RTX 6000 专为神经图形和高级虚拟世界模拟而设计,采用 Ada 一代 AI 和可编程着色器技术,是使用 NVIDIA Omniverse Enterprise 为虚拟世界创建内容和工具的理想平台。RTX 6000 使用户能够创建详细的内容、开发复杂的模拟,并形成构建引人入胜且引人入胜的虚拟世界所需的构建块。

NVIDIA RTX 6000 由 NVIDIA Ada 架构提供支持,采用最先进的 NVIDIA RTX 技术,具有以下特性:

  • 第三代 RT 内核:吞吐量是上一代的 2 倍,能够同时运行具有着色或降噪功能的光线追踪。
  • 第四代张量核心:AI 训练性能比上一代快 2 倍,扩展了对 FP8 数据格式的支持。
  • CUDA 内核:与上一代相比,单精度浮点吞吐量高达 2 倍。
  • GPU 内存:配备 48GB GDDR6 内存,可处理最大的 3D 模型、渲染图像、模拟和 AI 数据集。
  • 虚拟化:将支持用于多个高性能虚拟工作站实例的 NVIDIA 虚拟 GPU (vGPU) 软件,使远程用户能够共享资源并驱动高端设计、人工智能和计算工作负载。
  • XR:使用 NVIDIA CloudXR 流式传输多个同时 XR 会话的视频编码性能是上一代产品的 3 倍。

0 人点赞