留言板

 《留言板》

 

来者是客

如果你喜欢这里的内容

如果你觉得很有收获

或者,如果你和我一样有着相似的想法

不妨留个言吧

  1. DJ说道:

    您好博主,参考了您的两篇文章《利用TensorRT对深度学习进行加速》和《利用TensorRT实现神经网络提速(读取ONNX模型并运行)》。我是通过在pytorch上resnet50网络的预训练模型导出的onnx模型文件。在tensorRT的sampleONNXMNIST例子中,导入自己的模型时候总是会出现:
    WARNING: ONNX model has a newer ir_version (0.0.4) than this parser was built against (0.0.3).
    While parsing node number 69 [Gather -> "192"]:
    ERROR: /home/erisuser/p4sw/sw/gpgpu/MachineLearning/DIT/release/5.0/parsers/onnxOpenSource/ModelImporter.cpp:142 In function importNode:
    [8] No importer registered for op: Gather
    ERROR: failed to parse onnx file
    您也给出了说当官方或者直接下载源码编译。
    目前的问题是:tensorTRT5.1是支持Gather操作的。但是我需要在tx2中开发.在tx2中最新的版本中,支持的tensorRT版本是5.0。无法自己升级安装5.1版本。因为官方给的编译安装都要支持x86的,而tx2 是arm64的。
    所以想请教您关于我如何在源码中修改编译?

    1. Oldpan说道:

      如果仅仅是parser不支持Gather操作的话,那就在github上找到onnx-tensorrt下载编译和原先的tensorRT组合一下就好了,我看你这个错误是parser的问题。

  2. listenviolet说道:

    博主您好,我想请问一下您的blog蜘蛛网动态显示的算法原理是什么呢?如果将鼠标放置在一个固定位置不动,那么一段时间后,蜘蛛网会近似于圆形。比较好奇~希望向博主请教

    1. Oldpan说道:

      你可以打开浏览器开发者模式直接找到并查看这个的源码..PS:不是我写的

  3. hf说道:

    您好 请教您一个问题 我该如何打包libtorch 成一个dll 因为我想界面用c#写 然后调用底层的模型

    1. Oldpan说道:

      libtorch本身就是一个包,有动态链接库也有静态包,可以直接包进去的,但是可能会有一些坑。

      1. 77777说道:

        那里可以找到libtorch的静态库,或者说怎么编译静态库???

  4. why2说道:

    博主,您好,我参考了您的文章《Pytorch中多GPU训练指北》,同时我参考了
    https://medium.com/huggingface/training-larger-batches-practical-tips-on-1-gpu-multi-gpu-distributed-setups-ec88c3e51255
    其中 Adapting our Python training script for distributed training 这一部分。

    有几个问题想请教您。疑问1,我发现参考2其使用了DistributedSampler,但是没有见到您使用;
    疑问2,可以直接把第二个参考的运行参数 --nnodes=1达到你的效果吗';
    我试了参考2,遇到问题 RuntimeError: Expected a 'N2at13CUDAGeneratorE' but found 'PN2at9GeneratorE',
    参考 https://discuss.pytorch.org/t/error-when-using-distributedsampler/32987
    https://github.com/pytorch/pytorch/issues/15867 没有得到解决,请问您遇到过这样的问题吗?

  5. why说道:

    博主,您好,我参考了您的文章《Pytorch中多GPU训练指北》,使我的工作迈进了一大步,多谢您。
    我将单机多卡的 DistributedParallel代码融入到我的程序中,我是4卡机,然后运行后发现所有输出都会重复4次。甚至训练中打印出的损失信息也是4卡分别打印出得到的不同损失,总是感觉哪里不对,请问是我添加的 DistributedParallel代码 不对还是少了一部分内容,之前代码是使用torch.nn.DataParallel。

  6. ZZXin说道:

    博主您好,我在您的博客PyTorch中多GPU训练指北一文中 使用分布式训练时按照您给定的方式在pycharm中调试,run可以正常运行,但是debug会显示找不到要执行脚本的模块,请问您知道是什么问题么?

    1. Oldpan说道:

      不好意思哈,这种情况还没碰上,你如果有解决方法欢迎分享下~

      1. ZZXin说道:

        您的可以正常debug,是么?
        如果您按照所说的配置,可以正常debug,按道理讲,我的应该也可以,是不是我漏掉了什么?

  7. loveplay1983说道:

    你好,麻烦请教一下,关于你搭建的双显卡深度学习机,我是想问,您双显卡没有使用SLI的是吧,还就是双显卡要怎么和显示器连上呢,还是要接二个显示器还是只要接一台显示器就行了,另一只显卡插上就行??

    1. Oldpan说道:

      嗯嗯我没用stl,你亲自试试就ok了...显示器只需要插一个显卡,默认为0号显卡

      1. 小菜鸟说道:

        大佬威武!!博主大佬,我在您博客看到了很多遥感数据集的比赛,请问从哪里可以找到这些数据集上做过的实验对比,即目前在该数据集上的SOTA分别是那篇文章,求教大佬!

  8. SKY8G网说道:

    网站的主题不错,头一次看到这样的设计,支持一下

  9. zzz说道:

    请问用fcn做图像分割,pascal voc gt为rgb数据,怎么转化为标签呢?

  10. 凝聚态小土豆说道:

    你好,请教一个问题。现在我手里有1400个维度为101的样本,想建立自编码器来重构,重构的均方差卡在0.0001附近下不去。尝试分段训练(都是SGD),第二段缩小批训练数量,减小学习率,但无论如何调都不能使误差进一步减小。请问有什么优化的方法可以进一步降低重构误差?

    1. Oldpan说道:

      试试Adam优化器从头开始训练,学习率曲线尝试尝试CosineAnnealingLR

  11. 小白说道:

    您好,您提供的代码确实好用。但我想向您咨询一个问题。我现在跑的程序中间变量并没有占用多少内存。我发现我现在跑的这个程序每次循环的时候都会把它自己定义的模型给导入到GPU中,现在有什么办法可以在循环完之后把GPU中的模型给删除掉么?模型是在def___中的,用del删除不掉。

    1. Oldpan说道:

      del是可以删除的(模型的权重信息,中间变量删不了),只是通过显存观察不到,这个删除的显存还是被Pytorch占用,但是可以分配给其他你需要显存的地方。

  12. 小白说道:

    python版本是一样的,系统是win7的,pytorch是0.4的,跟您的配置应该是一样的吧,但刚刚还是出现了同样的问题

    1. Oldpan说道:

      在win下处理路径的方式不一样,你初始化MemTracker的时候把path也初始化一下,path写win下绝对的地址。关于win下python地址注意点看这个 https://oldpan.me/archives/forward-slash-backward-slash-distinguish

      1. 小白说道:

        好的,谢谢您的帮助,我试一下,然后及时给您反馈。

      2. 小白说道:

        按照您说的,已经可以监测了。十分感谢您的帮助

  13. 小白说道:

    我在使用您提供的可监测python程序中显存占用量的代码时,出现了如下错误,不知该怎么解决,希望您能帮忙答疑。谢谢您!OSError: [Errno 22] Invalid argument: '17-Apr-19-18:06:47-gpu_mem_track.txt'。这个问题是在运行到第一句gpu_tracker.track()时出错的,具体的位置是 with open(self.gpu_profile_fn, 'a+') as f:这一句代码。

    1. Oldpan说道:

      检查下python的版本,或者你的运行平台(是不是windows?),我是在python3.6和linux下运行的,如果你不同的话需要修改下地址的生成代码。

      1. 小白说道:

        是一样的,python是3.6的,平台是win7,又运行了一遍还是同样的错误

  14. sherlock说道:

    您好,请问tensorRT的int8量化功能是针对显卡型号进行支持的吗?显卡算力不够,是不支持的吗?

    1. Oldpan说道:

      也可以说是算力,更确切的说是计算能力,也叫capability,有些显卡支持int8运算而有些支持fp16。确实int8功能需要特定显卡的,我们最常见的1080ti就支持。

  15. 阿司匹林说道:

    Oldpan,你好呀,我在安装fastai时遇到了问题,我是win10系统,安装完pytorch1.0没遇到问题(用的pip3),然后使用pip install fastai 就安装不成功了,请您帮我看一下。提示这样子:

    ----------------------------------------
    Failed building wheel for bottleneck
    Running setup.py clean for bottleneck
    Building wheel for ujson (setup.py) ... error
    ----------------------------------------
    Failed building wheel for ujson
    Running setup.py clean for ujson
    Building wheel for cytoolz (setup.py) ... error
    ----------------------------------------
    Failed building wheel for cytoolz
    Running setup.py clean for cytoolz
    Failed to build bottleneck ujson cytoolz

    1. Oldpan说道:

      那是fastai需要的一些组件你无法正确安装,无法正确安装的组件最好一个一个排查下,单独安装。

    2. 阿司匹林说道:

      已经解决,谢谢博主。

    3. Yujie_He说道:

      打扰一下,我也遇到类似问题,想请教怎么解决的

      1. 阿司匹林说道:

        你好,我记得我的解决方法是:下载微软的VS软件,然后添加一些开发模块,然后把提示的需要安装的包安装好,然后就可以成功安装Fastai!希望对你有用。

        1. Yujie He说道:

          目前电脑是已经装有vs2015+matlab17b+cuda8.0,仍然遇到装不上的问题,是需要重新装vs吗,谢谢!

          1. 阿司匹林说道:

            请安装vs2017,我安装的就是2017,希望有用,请多多试试!

  16. maomao说道:

    想知道用torchscript pth转pt的代码,谢谢大佬

  17. stone说道:

    你好,请问您这个是什么主题啊,支持显示所写的Markdown目录的语法么?

    1. Oldpan说道:

      主题是kratos但是自己魔改了下,默认的不支持目录哈

      1. stone说道:

        好的,我已经找到啦符合我审美的主题啦,谢谢啦

  18. iaocovj说道:

    Logistick Jobs in Hamburg

  19. Lambert说道:

    博友新年快乐!万事如意。L&H Site

    1. Oldpan说道:

      迟到的祝福,新年快乐~

发表评论

电子邮件地址不会被公开。 必填项已用*标注

评论审核已启用。您的评论可能需要一段时间后才能被显示。