AI开发人员选择NVIDIA TAO工具的5大理由

2021-09-29 17:13:17 浏览数 (1)

这是28号美国NVIDIA的一个线上讲座,我们一起看看都讲了什么。

这是我们熟知的AI应用场景:

创造AI产品过程中遇到的挑战:

1.大型训练数据集

2.缺乏为生产而准备的模型

3. 缺乏AI专家

什么是NVIDIA TAO? 

NVIDIA TAO(训练、适应和优化)是一个可以简化和加速企业 AI 应用和服务创建的 AI 模型自适应平台。通过基于用户界面的指导性工作流程,让用户可以使用自定义数据对预训练模型进行微调,无需掌握大量训练运行和深度 AI 专业知识,在数小时内(原本需要数月)产生高度精确的计算机视觉、语音和语言理解模型。

NVIDIA 训练、适应和优化 ( TAO:Train, Adapt, and Optimize ) 是 NVIDIA 的人工智能模型适应平台,可简化和加速人工智能的创建。TAO 平台汇集了加速模型适应过程所需的各种 NVIDIA 技术。包括迁移学习工具包或 TLT,现在将重命名为 TAO 工具套件。NVIDIA TAO 工具套件是一种基于 CLI、Jupyter notebook 驱动的解决方案,是一款独立的产品,通过抽象出 AI/DL 框架的复杂性来简化迁移学习的过程,用户可以在他们熟悉的 TAO 工具套件环境中使用命令行界面优化模型。

NVIDIA AI工作流程:

第一步:从 NVIDIA 的预训练模型库或模型架构中进行选择

第二步:根据您独特的应用程序快速训练、调整和优化模型

第三步:将您的自定义模型集成到您的应用程序中并进行部署

TLT改名为"TAO”工具包都变了什么?

-CLI 界面:“tlt”命令更改为“tao”

-容器:‘tlt-streamanalytics’ → ‘tao_toolkit-tf’ ‘tlt-pytorch’ → ‘tao_toolkit-pyt’ 

-模型:‘tlt_*’→ ‘tao_*’

对现在的TLT开发者有什么影响么?

-继续使用现有的包和 docker 容器,但没有升级

-使用“pip3 install nvidia-tao”升级到新软件包 

-从 NGC 下载新notebook。

评测:高性能预训练视觉 AI 模型

真实场景用例中的模型准确性对比

Public YOLOV4 Model

PeopleNet Model

人员检测准确性低

开箱即用的高精度 (>80%)

需要大量数据以提高准确性

需要最少的数据进行微调

更难适应

使用 TAO 更容易适应和定制

需要定制以优化推理

针对高推理吞吐量进行了优化

PEOPLENET – 适用于多种用例

AI开发人员选择NVIDIA TAO工具的5大理由:

理由1:不需要AI专家

理由2:有限的数据集?在 TAO 中使用数据增强

理由3:高度可扩展

理由4:精细化训练或随机初始化训练

理由5:利用 TAO 的优化功能最大化推理

案例:

利用NVIDIA TRT和Deepstream创建一个实时车牌检测和识别应用程序

资源:

Check out GitHub for TAO to Triton integration - 

https://github.com/NVIDIA-AI-IOT/tao-toolkit-triton-apps

0 人点赞