-
-
刘看山
你直接把
HWDBtrn_gnt
这个文件夹的路径传给程序就可以了;python convertxxx.py HWDBTtrn_gnt
代码意思是读取第一个参数也就是你的路径,否则就是没有路径会报错.这个很简单的代码..... 感觉幼儿园毕业的都能理解
-
-
-
刘看山
请用 onnx2trt 工具转.
你这个不太确定是啥问题,可能是版本过于老旧,我们的工具链配合平台的onnx导出是没问题的,我们已经跑了很多个项目了.
-
刘看山
你需要generate 相应的tensorflow record.
具体生成方式可以参考一些其他的对应教程,我们有convert的脚本,你可能需要根据你的路径修改一下,如果实在找不到,就看看里面glob的逻辑,看看它找的是哪些文件.
这个项目是tensorflow的,然后数据集相对来说也比较复杂,你完全看不懂它里面是个啥,包括我也不看不懂.
你先试一下,不懂再问 -
刘看山
不知道大家是否遇到过这么一个问题,就是生成一个动态的tensorrt模型,同时还要对这个模型进行推理。其实这里面蕴含着两个问题,其中一个是你如何来生成一个包含动态的batch的模型,其次就是这个动态的模型我们怎么分配GPU显存来进行动态的推理。
首先需要说明的是,生成动态的batchsize用 trtexec比较好:
trtexec --onnx=./alphapose.onnx --explicitBatch \ --minShapes="input":1x3x256x192 \ --optShapes="input":20x3x256x192 \ --maxShapes="input":80x3x256x192 \ --shapes="input":20x3x256x192 \ --saveEngine=resnet18_dynamic.engine
-
-
刘看山
你好,这里面所有关于seg有关的都是语义分割的类别,而thing是实例类别。也就是检测里面的类别。
而语义是不区分实例的,在coco里面实例类别是80类,而语义是54类。
如果需要修改就需要修改成你的类别数,加入你的数据存放格式和coco一样,那么这些就只要修改数字即可,如果不是,你得实现自己的dataloader。 -
刘看山
什么是TensorRT OSS? 你可以理解为tensorrt的lib是你从官网下载的, 这个oss是英伟达开源的那一部分. 等于是一个tensorrt的扩展.
因为tensorrt核心库是不开源的, 但是一些扩展被开元出来了. 这个oss有什么用呢?简单来说, 就是开源的plugin, 给你一些现成的plugin用的.
我们可以这样编译tensorrt oss:
git clone https://github.com/NVIDIA/TensorRT cd TensorRT cmake .. -DTRT_LIB_DIR=~/TensorRT/lib -DTRT_OUT_DIR=`pwd`/out
编译完之后, 会自动覆盖掉你下载的tensorrt lib, 并且会生成与一个libonnx_parser_plugin, 供你调用.
据我所致, 一些基本的plugin,需要oss, 比如InstanceSegmentation plugin等.