- 链接地址:https://blog.csdn.net/weixin_42492254/article/details/124757094
- 链接标题:Python环境下将ONNX模型转为fp16 半精度浮点方式_c++ onnx转fp16变慢-CSDN博客
- 所属网站:blog.csdn.net
- 被收藏次数:5944
文章浏览阅读6.1k次。背景在TX2上和NX上跑自己想要的模型还是有点慢,由于Jetpack4.6.2的TensorRT8.2对于有16G内存的NX支持存在问题运行不了(8G内存没有问题),可以运行的TensorRT7不支持我这边模型用到的einsum操作,所以我先想着改成fp16运行下看看参考https://blog.csdn.net/znsoft/article/details/114538684流程参考代码其实挺简单,但是python环境安装过程有点坎坷,建议新建一个虚拟环境来安装,好像有人把环境都直接装崩了新_c++ onnx转fp16变慢
版权声明:本文发布于特牛网址导航 内容均来源于互联网 如有侵权联系删除