課程鏈接:https://edu.csdn.net/course/detail/39320
PyTorch版的YOLOv8支持高性能的實時實例分割。
TensorRT是針對英偉達GPU的加速工具。
ONNX?(Open Neural Network Exchange) 作為一個開放的網絡模型中間表示(IR)格式,提供了跨框架兼容性。可以方便不同的框架輕松地交換模型,有助于框架之間的互操作性。
本課程講述如何對YOLOv8實例分割的PyTorch權重文件轉成ONNX格式并進行TensorRT加速部署。
相比與直接使用TensorRT API構建推理引擎,本方法更具靈活性,可用于修改YOLOv8網絡架構后的模型部署。
課程亮點包括:
- YOLOv8實例分割的PyTorch權重文件轉成ONNX,再轉成TensorRT 推理引擎
- 支持在GPU上端到端TensorRT加速部署,包括預處理(圖像resize, 歸一化)、網絡推理、后處理(非極大抑制) 均在GPU上執行
- 支持FP16加速
- 提供C++和Python的TensorRT加速命令接口
- 分別在Windows和Ubuntu系統上做YOLOv8的ONNX轉換及TensorRT部署演示
- 支持圖片、圖片文件夾、視頻文件的TensorRT的加速推理
- 提供YOLOv8的ONNX轉換及TensorRT加速部署代碼和代碼解析文檔
實測推理速度提高2倍以上。
課程內容包括:
- 原理篇(YOLOv8網絡架構與組件、TensorRT基礎、ONNX基礎、CUDA編程方法)
- 實踐篇(Windows和Ubuntu系統上的ONNX模型轉換及TensorRT加速部署流程演示)
- 代碼解析篇(YOLOv8的ONNX模型轉換及TensorRT加速的代碼解析)?