onnx转ncnn
完整实现:
代码语言:javascript复制def onnx2ncnn(self):
assert os.path.isfile(simplified_onnx_path)
os.system('onnx2ncnn {} {} {}'.format(simplified_onnx_path, param_path, bin_path))
print('n param has been save to {}'.format(param_path))
print(' bin has been save to {}n'.format(bin_path))
os.system('ncnnoptimize {} {} {} {} fp32'.format(param_path, bin_path, param_path, bin_path))
print('n param has been ncnnoptimized')
print(' bin has been ncnnoptimizedn')
1. 简化onnx
如果省略此步,会导致模型耗时增加约一半,模型大小增加约一半。且利用网站在线转换时容易报错:Unsupported unsqueeze axes !
如果没安装过 onnx-simplifie,安装一下:
代码语言:javascript复制pip install onnx-simplifier==0.2.4 -i https://pypi.tuna.tsinghua.edu.cn/simple
代码语言:javascript复制Note:经过simplify的onnx并不会有精度损失!
python -m onnxsim .2task.aiyou.0.0.onnx 2task.0.0.onnx
2. onnx2ncnn
2.1.指令转ncnn
安装:
参照 进行安装。
把ncnn/build/tools/下的 onnx2ncnn 和 ncnnoptimize(其他地方会用到) 移到全局环境下:
即可到任意目录下执行 onnx 到 ncnn 的转换:
2.2.网站在线转ncnn
进入 convertmodel.com 进行在线转换:
3. 优化ncnn
代码语言:javascript复制Note:如果不优化的话,pnn下loadModel时可能会fail。
ncnnoptimize A.param A.bin A.param A.bin fp32
优化后的param只剩卷积结构: