• 刘看山

    @AdolphWang Windows目前不支持,用Ubuntu,这个项目的数据集在windows下的编码都是失败的

    发布在 社区求助区(SOS!!) 阅读更多
  • 刘看山

    你直接把 HWDBtrn_gnt 这个文件夹的路径传给程序就可以了;

    python convertxxx.py HWDBTtrn_gnt
    

    代码意思是读取第一个参数也就是你的路径,否则就是没有路径会报错.这个很简单的代码..... 感觉幼儿园毕业的都能理解

    发布在 社区求助区(SOS!!) 阅读更多
  • 刘看山

    你这个问题很严重啊,可能是你没有严格按照文件的路径组织编排路径.

    发布在 社区求助区(SOS!!) 阅读更多
  • 刘看山

    请用 onnx2trt 工具转.

    你这个不太确定是啥问题,可能是版本过于老旧,我们的工具链配合平台的onnx导出是没问题的,我们已经跑了很多个项目了.

    发布在 社区求助区(SOS!!) 阅读更多
  • 刘看山

    你需要generate 相应的tensorflow record.

    具体生成方式可以参考一些其他的对应教程,我们有convert的脚本,你可能需要根据你的路径修改一下,如果实在找不到,就看看里面glob的逻辑,看看它找的是哪些文件.

    这个项目是tensorflow的,然后数据集相对来说也比较复杂,你完全看不懂它里面是个啥,包括我也不看不懂.
    你先试一下,不懂再问

    发布在 社区求助区(SOS!!) 阅读更多
  • 刘看山

    不知道大家是否遇到过这么一个问题,就是生成一个动态的tensorrt模型,同时还要对这个模型进行推理。其实这里面蕴含着两个问题,其中一个是你如何来生成一个包含动态的batch的模型,其次就是这个动态的模型我们怎么分配GPU显存来进行动态的推理。

    首先需要说明的是,生成动态的batchsize用 trtexec比较好:

    trtexec --onnx=./alphapose.onnx --explicitBatch \
                --minShapes="input":1x3x256x192 \
                --optShapes="input":20x3x256x192 \
                --maxShapes="input":80x3x256x192 \
                --shapes="input":20x3x256x192 \
                --saveEngine=resnet18_dynamic.engine
    

    发布在 创造性想法 阅读更多
  • 刘看山

    你好,这里面所有关于seg有关的都是语义分割的类别,而thing是实例类别。也就是检测里面的类别。
    而语义是不区分实例的,在coco里面实例类别是80类,而语义是54类。
    如果需要修改就需要修改成你的类别数,加入你的数据存放格式和coco一样,那么这些就只要修改数字即可,如果不是,你得实现自己的dataloader。

    发布在 社区求助区(SOS!!) 阅读更多
  • 刘看山

    什么是TensorRT OSS? 你可以理解为tensorrt的lib是你从官网下载的, 这个oss是英伟达开源的那一部分. 等于是一个tensorrt的扩展.

    因为tensorrt核心库是不开源的, 但是一些扩展被开元出来了. 这个oss有什么用呢?简单来说, 就是开源的plugin, 给你一些现成的plugin用的.

    我们可以这样编译tensorrt oss:

    git clone https://github.com/NVIDIA/TensorRT
    cd TensorRT
    cmake .. -DTRT_LIB_DIR=~/TensorRT/lib -DTRT_OUT_DIR=`pwd`/out
    

    编译完之后, 会自动覆盖掉你下载的tensorrt lib, 并且会生成与一个libonnx_parser_plugin, 供你调用.

    据我所致, 一些基本的plugin,需要oss, 比如InstanceSegmentation plugin等.

    发布在 原创分享专区 阅读更多

与 ManaAI社区 的连接断开,我们正在尝试重连,请耐心等待