1、找到engine文件夹下的exporter.py文件。
2、修改文件夹路径,改为我们训练结束后生成的文件夹。
3、打开default.yaml文件夹,找到format参数,修改为onnx,找到batch改为1,然后返回exporter.py文件,运行,导出onnx模型,方便trt和onnxruntime部署。
4、以上就是一个模型导出的完整流程;然而有人想要用openvino部署,需要导出vino模型。同样,打开default.yaml文件夹,找到batch改为1,找到format参数,修改为openvino;导出openvino可调用模型,
5、查看模型,通过网站https://netron.app/打开刚才生成的onnx,点击images,可以看到batch为1。