pytorch多GPU使用和指定某个GPU并且多gpu比单gpu快吗? |
您所在的位置:网站首页 › pytorch指定显卡训练 › pytorch多GPU使用和指定某个GPU并且多gpu比单gpu快吗? |
pytorch使用多GPU
大多数涉及批量输入和多个GPU的情况默认使用DataParallel来使用多个GPU。即使使用GIL,单个python进程也可能使多个GPU饱和。 pytorch指定使用哪个GPU使用CUDA_VISIBLE_DEVICES,类似tensorflow指定GPU的方法。 直接终端中设定: CUDA_VISIBLE_DEVICES=1 python my_script.pypython代码中设定: import os os.environ["CUDA_VISIBLE_DEVICES"] = "2"使用函数set_device,该函数见 pytorch-master\torch\cuda\__init__.py。 import torchtorch.cuda.set_device(id)不过官方建议使用CUDA_VISIBLE_DEVICES,不建议使用set_device函数。 pytorch多gpu比单gpu快么有人用multi-gpu和single-gpu在MNIST数据集上训练了一个简单的网络。但是多GPU版本花费时间比单个版本多?这是否与不同的GPU之间的数据切换有关? 其实MNIST数据非常小,您的模型可能非常小,所以在使用多个GPU时,多GPU反而可能开销更大。使用大家没有看到很多优势,但是移动到ImageNet,Pascal等模型较大的大型数据集。就体现出差距了 pytorch选择一个比较好的GPU还是多个次一点的GPU从上面可以看出,我们还是选择多个GPU比较好,就好比说两个1080 SLI比单个1080 TI好 在训练模型时,GPU内存使用率不断增长这种问题出现的原因很多,一般情况下你可以去查查程序的优化以及不要存储太多变量 原创文章,转载请注明 :pytorch多GPU使用和指定某个GPU并且多gpu比单gpu快吗? - pytorch中文网 原文出处: https://ptorch.com/news/78.html 问题交流群 :168117787 |
今日新闻 |
推荐新闻 |
CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3 |