ONNX模型部署利器ONNXRUNTIME框架 天天观焦点

2023-06-17 23:14:53来源:面包芯语


(资料图)

GPU版本

然后配置库目录:

最后配置链接器,我的是支持CUDA版本,配置如下:

最后把DLL文件copy到编译生成的可执行文件同一个目录下,直接运行即可。C++推理,简单说分为四步,首先引入包含文件支持,再初始化推理会话对象Session,预处理图像,然后执行推理,最后完成后处理即可。

以ResNet18模型为例,导出ONNX格式,基于ONNXRUNTIME推理效果如下:

扫码查看OpenCV+OpenVIO+Pytorch系统化学习路线图

关键词:

上一篇:徐州市区一建筑物顶楼起火,无人员伤亡_全球观点
下一篇:最后一页