楼主: kaixin202212
395 0

TensorRT8.6 计算机视觉模型部署与加速教程 [推广有奖]

  • 0关注
  • 1粉丝

讲师

17%

还不是VIP/贵宾

-

威望
0
论坛币
380 个
通用积分
29.2918
学术水平
0 点
热心指数
3 点
信用等级
0 点
经验
5182 点
帖子
180
精华
0
在线时间
281 小时
注册时间
2022-11-10
最后登录
2024-4-30

+2 论坛币
k人 参与回答

经管之家送您一份

应届毕业生专属福利!

求职就业群
赵安豆老师微信:zhaoandou666

经管之家联合CDA

送您一个全额奖学金名额~ !

感谢您参与论坛问题回答

经管之家送您两个论坛币!

+2 论坛币
TensorRT8.6 计算机视觉模型部署与加速教程
学习地址1:https://pan.baidu.com/s/1TrrCln2FAx4x11larCcXaA 提取码: yzfc
学习地址2:https://share.weiyun.com/tXVACNni 密码:6qc6k7

TensorRT8.6 计算机视觉模型部署与加速教程分享,2023新课,视频+代码+数据下载!

1、什么的TensorRT
TensorRT是nvidia家的一款高性能深度学习推理SDK。此SDK包含深度学习推理优化器和运行环境,可为深度学习推理应用提供低延迟和高吞吐量。在推理过程中,基于TensorRT的应用程序比仅仅使用CPU作为平台的应用程序要快40倍。

2、cuda、cudnn和tensorrt的关系
CUDA是NVIDIA推出的用于自家GPU的并行计算框架,也就是说CUDA只能在NVIDIA的GPU上运行,而且只有当要解决的计算问题是可以大量并行计算的时候才能发挥CUDA的作用。CUDA的主要作用是连接GPU 和 应用程序,方便用户通过 CUDA 的 API 调度 GPU 进行计算。

cuDNN(CUDA Deep Neural Network library):是NVIDIA打造的针对深度神经网络的加速库,是一个用于深层神经网络的GPU加速库。它能将模型训练的计算优化之后,再通过 CUDA 调用 GPU 进行运算.

当然你也可直接使用 CUDA,而不通过 cuDNN ,但运算效率会低好多。因为你的模型训练计算没有优化。

TensorRT是英伟达针对自家平台做的加速包,只负责模型的推理(inference)过程,一般不用TensorRT来训练模型的,而是用于部署时加速模型运行速度。

3、TensorRT部署
TensorRT 只需要知道网络的结构和参数即可,它支持三种转换入口:
TF-TRT,要求是 TensorFlow 模型
ONNX 模型格式
使用 TensorRT API 手动把模型搭起来,然后把参数加载进去

找到TensorRT的下载地址,我这边选择的是TensorRT8,TensorRT支持以下几种方式安装,分别是deb,tar,rpm。我这边的系统是Ubuntu 22.04,CUDA版本是11.6,选择的安装方式是tar进行安装。
关于tar的安装方式,可以参考Nvidia官方文档中关于tar的部分。NVIDIA Deep Learning TensorRT Documentation关于tar的安装方式,可以参考Nvidia官方文档中关于tar的部分。

所以整个逻辑就是:
把你的模型导出成 ONNX 格式。
把 ONNX 格式模型输入给 TensorRT,并指定优化参数。
使用 TensorRT 优化得到 TensorRT Engine。
使用 TensorRT Engine 进行 inference。


二维码

扫码加我 拉你入群

请注明:姓名-公司-职位

以便审核进群资格,未注明则拒绝

关键词:Tensor 计算机视觉 计算机 ten SOR

您需要登录后才可以回帖 登录 | 我要注册

本版微信群
加JingGuanBbs
拉您进交流群

京ICP备16021002-2号 京B2-20170662号 京公网安备 11010802022788号 论坛法律顾问:王进律师 知识产权保护声明   免责及隐私声明

GMT+8, 2024-5-1 07:30