导言
WeChat TFCC是微信技术架构部后台团队研发的服务端深度学习通用推理框架,也是腾讯深度学习与加速Oteam云帆的开源协同成果,具有高性能、易用、通用的特点,已在微信视频号、微信开放平台推荐系统、微信画像、微信智聆语音识别、语音合成等业务广泛使用; 支持81个ONNX Operation和108个Tensorflow Operation,覆盖推荐、NLP、语音等场景的各种主流模型,同时更多的Operation在持续接入中。
整体结构
WeChat TFCC由Library、Runtime、Generator三大组件构成,通过层层抽象、互相配合的方式,在保证高性能的前提下,极大的提高了扩展性和通用性。整体结构如下:
高性能
TFCC通过模型结构优化、常数跟踪、算子优化等多方面技术优化通用模型推理性能,在微信的各类业务模型中取得很好的性能效果。以BERT(bert-base)模型为例(如下图所示),在Intel CPU、Nvidia GPU平台的QPS对比,TFCC性能处于较高水准。
模型结构优化
模型结构优化包含常数折叠、模型剪枝、算子融合等。常数折叠可以预先算好部分数据,减少线上运行时的计算量。模型剪枝是减少模型的无用分支,算子融合是将多个小算子融合成一个大算子,减少内存和显存的带宽压力。
常数跟踪
常数跟踪是一种比常量折叠更激进的优化方案; 常数跟踪通过跟踪常量的走向,区分出矩阵中存在的局部常量,从而获取更详细的模型信息,取得更好的模型结构优化效果。
算子优化
TFCC Math Library是TFCC底层的算子库,部分算子是对底层oneDNN及cublas的封装,部分则是经过汇编级优化的高性能算子。CPU支持使用AVX2、AVX512指令集加速运算。
易用性
TFCC提供了一套完善的工具,只需要一行类似下图的命令,即可将ONNX模型或者Tensorflow模型转换为TFCC模型。
TFCC支持如下图所示的Runtime执行方式:TFCC模型由TFCC Runtime动态读入图结构,并用JIT技术动态生成图调用链, 业务无需手写模型代码,即可将训练模型转换并部署高性能运行,同时TFCC也提供一个基于Runtime的验证程序,可以简单的验证模型的正确性。
通用性
TFCC的通用性包含模型通用性和硬件通用型两个方面。
模型通用性
TFCC提供一套完善的工具,通过类编译器架构:Frontend->Optimizer->Backend结构,将ONNX模型和Tensorflow模型转换为统一的TFCC内部模型表示。当前支持81个ONNX Operation和108个Tensorflow Operation,覆盖推荐系统、NLP等场景的主流模型;由于使用类编译器架构,WeChat TFCC可以很方便的进行平行扩展,以支持更多种类更多模型。
硬件通用性
TFCC目前支持的硬件平台有X86-64平台的CPU及NVIDIA的GPU,切换平台只需要修改调用参数即可,并且基于不同平台的特点进行汇编级性能优化。
结语
TFCC专耕于服务端的深度学习推理,还在不断迭代中,后续会加入更多的特性及性能优化,敬请期待。
?开源地址:https://github.com/Tencent/WeChat-TFCC
https://github.com/Tencent
(点击文末阅读原文直接访问)
请给项目 一个 Star !
欢迎提出你的 issue 和 PR!
国内镜像地址:
https://git.code.tencent.com/Tencent_Open_Source
(登录后才能访问公开项目)
腾讯工蜂源码系统为开源开发者提供完整、最新的腾讯开源项目国内镜像
关注腾讯开源公众号
获取更多最新腾讯官方开源信息!