完整实现:
def onnx2ncnn(self):
assert os.path.isfile(simplified_onnx_path)
os.system('onnx2ncnn {} {} {}'.format(simplified_onnx_path, param_path, bin_path))
print('\n param has been save to {}'.format(param_path))
print(' bin has been save to {}\n'.format(bin_path))
os.system('ncnnoptimize {} {} {} {} fp32'.format(param_path, bin_path, param_path, bin_path))
print('\n param has been ncnnoptimized')
print(' bin has been ncnnoptimized\n')
如果省略此步,会导致模型耗时增加约一半,模型大小增加约一半。且利用网站在线转换时容易报错:Unsupported unsqueeze axes !
如果没安装过 onnx-simplifie,安装一下:
pip install onnx-simplifier==0.2.4 -i https://pypi.tuna.tsinghua.edu.cn/simple
Note:经过simplify的onnx并不会有精度损失!
python -m onnxsim .\2task.aiyou.0.0.onnx 2task.0.0.onnx
安装:
参照 进行安装。
把ncnn/build/tools/下的 onnx2ncnn 和 ncnnoptimize(其他地方会用到) 移到全局环境下:
即可到任意目录下执行 onnx 到 ncnn 的转换:
进入 convertmodel.com 进行在线转换:
Note:如果不优化的话,pnn下loadModel时可能会fail。
ncnnoptimize A.param A.bin A.param A.bin fp32
优化后的param只剩卷积结构:
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有