这是28号美国NVIDIA的一个线上讲座,我们一起看看都讲了什么。
这是我们熟知的AI应用场景:
创造AI产品过程中遇到的挑战:
1.大型训练数据集
2.缺乏为生产而准备的模型
3. 缺乏AI专家
什么是NVIDIA TAO?
NVIDIA TAO(训练、适应和优化)是一个可以简化和加速企业 AI 应用和服务创建的 AI 模型自适应平台。通过基于用户界面的指导性工作流程,让用户可以使用自定义数据对预训练模型进行微调,无需掌握大量训练运行和深度 AI 专业知识,在数小时内(原本需要数月)产生高度精确的计算机视觉、语音和语言理解模型。
NVIDIA 训练、适应和优化 ( TAO:Train, Adapt, and Optimize ) 是 NVIDIA 的人工智能模型适应平台,可简化和加速人工智能的创建。TAO 平台汇集了加速模型适应过程所需的各种 NVIDIA 技术。包括迁移学习工具包或 TLT,现在将重命名为 TAO 工具套件。NVIDIA TAO 工具套件是一种基于 CLI、Jupyter notebook 驱动的解决方案,是一款独立的产品,通过抽象出 AI/DL 框架的复杂性来简化迁移学习的过程,用户可以在他们熟悉的 TAO 工具套件环境中使用命令行界面优化模型。
NVIDIA AI工作流程:
第一步:从 NVIDIA 的预训练模型库或模型架构中进行选择
第二步:根据您独特的应用程序快速训练、调整和优化模型
第三步:将您的自定义模型集成到您的应用程序中并进行部署
TLT改名为"TAO”工具包都变了什么?
-CLI 界面:“tlt”命令更改为“tao”
-容器:‘tlt-streamanalytics’ → ‘tao_toolkit-tf’ ‘tlt-pytorch’ → ‘tao_toolkit-pyt’
-模型:‘tlt_*’→ ‘tao_*’
对现在的TLT开发者有什么影响么?
-继续使用现有的包和 docker 容器,但没有升级
-使用“pip3 install nvidia-tao”升级到新软件包
-从 NGC 下载新notebook。
评测:高性能预训练视觉 AI 模型
真实场景用例中的模型准确性对比
Public YOLOV4 Model | PeopleNet Model |
---|---|
人员检测准确性低 | 开箱即用的高精度 (>80%) |
需要大量数据以提高准确性 | 需要最少的数据进行微调 |
更难适应 | 使用 TAO 更容易适应和定制 |
需要定制以优化推理 | 针对高推理吞吐量进行了优化 |
PEOPLENET – 适用于多种用例
AI开发人员选择NVIDIA TAO工具的5大理由:
理由1:不需要AI专家
理由2:有限的数据集?在 TAO 中使用数据增强
理由3:高度可扩展
理由4:精细化训练或随机初始化训练
理由5:利用 TAO 的优化功能最大化推理
案例:
利用NVIDIA TRT和Deepstream创建一个实时车牌检测和识别应用程序
资源:
Check out GitHub for TAO to Triton integration -
https://github.com/NVIDIA-AI-IOT/tao-toolkit-triton-apps