Spaces:
Running
on
T4
Running
on
T4
使用 DeepStream SDK 推理 MMYOLO 模型
本项目演示了如何使用 DeepStream SDK 配合改写的 parser 来推理 MMYOLO 的模型。
预先准备
1. 安装 Nidia 驱动和 CUDA
首先请根据当前的显卡驱动和目标使用设备的驱动完成显卡驱动和 CUDA 的安装。
2. 安装 DeepStream SDK
目前 DeepStream SDK 稳定版本已经更新到 v6.2,官方推荐使用这个版本。
3. 将 MMYOLO 模型转换为 TensorRT Engine
推荐使用 EasyDeploy 中的 TensorRT 方案完成目标模型的转换部署,具体可参考 此文档 。
编译使用
当前项目使用的是 MMYOLO 的 rtmdet 模型,若想使用其他的模型,请参照目录下的配置文件进行改写。然后将转换完的 TensorRT engine 放在当前目录下并执行如下命令:
mkdir build && cd build
cmake ..
make -j$(nproc) && make install
完成编译后可使用如下命令进行推理:
deepstream-app -c deepstream_app_config.txt
项目代码结构
├── deepstream
│ ├── configs # MMYOLO 模型对应的 DeepStream 配置
│ │ └── config_infer_rtmdet.txt
│ ├── custom_mmyolo_bbox_parser # 适配 DeepStream formats 的 parser
│ │ └── nvdsparsebbox_mmyolo.cpp
| ├── CMakeLists.txt
│ ├── coco_labels.txt # coco labels
│ ├── deepstream_app_config.txt # DeepStream app 配置
│ ├── README_zh-CN.md
│ └── README.md