保姆级GPU白嫖攻略

您所在的位置:网站首页 kaggle免费gpu 保姆级GPU白嫖攻略

保姆级GPU白嫖攻略

2023-08-14 04:31| 来源: 网络整理| 查看: 265

数千微信好友,每天都会有几个问我 Torch not complied with CUDA enabled 这类问题。

天天回答重复性问题,回答得我头秃。索性写篇科普文,教大家如何解决,并且「白嫖 GPU」。

以后再被问到类似问题,我就直接将这篇文章转发给他。

一、显卡

首先,你需要知道一点,学习深度学习算法,需要有 GPU,也就是显卡。

而显卡,需要是 NVIDIA 的显卡,也就是我们俗称的 N 卡。

虽然人人都喊「 AMD yes,AMD 真香」,但在深度学习领域,目前来看 只能对 A 卡说 No。

因为,主流的推理框架,都需要在 NVIDIA 推出的 CUDA 运算平台上进行,使用上这也是最方便的。

所以,如果你没有 N 卡,比如你用 Mac 本或者 A 卡电脑,那么你只能使用 CPU 版本的深度学习框架。

深度学习使用 GPU 运算很快,用 CPU 巨慢无比。

如果只是进行算法的效果测试,那姑且可以用 CPU 试一试,不过很多算法就算测试,可能也需要跑上十几分钟。

如果要进行算法的训练,那必须用 GPU,用 CPU 跑训练会跑到怀疑人生,几个月不断电都未必训练好算法。

至于「Torch not complied with CUDA enabled」这个问题:

如果你有 GPU ,那么就是你没有配置好开发环境。如果你没有 GPU,那么你就只能修改代码,使用 cpu 跑算法。

配置开发环境,可以参考我写过的这篇《语义分割基础与环境搭建》文章的环境配置部分。

修改代码为 cpu 版,这个对新手可能有点难度,不同深度学习框架修改方法也不同。

好在有百度,直接搜索关键词「pytorch修改代码为cpu」,其他框架同理,教程非常多。

自己没有 GPU,但是我就想用!可以!引出文本的重点,教你如何「白嫖 GPU」。

二、白嫖GPU

想白嫖,就盯准国内外提供 GPU 服务的大厂就行,比如这些知名的平台。

1、Colab

Colab 个人使用感觉体验最好,并且很多开源的算法,都直接提供了 colab 的运行脚本。

无需配置开发环境,直接运行体验算法效果。

但是它也有明显的问题,需要梯子,毕竟 Google 的产品。

只需要在 Google Drive 上,安装 colab 即可使用。如果需要上传数据,可以上传到 Google Drive 上,并在 colab 中挂载,就可以直接访问。

显卡:V100、P100、T4 等训练主流显卡,显存 16 G。

磁盘存储:15 G,可使用 Google Drive 扩容。

时间限制:每次 12 个小时。

使用教程:https://blog.csdn.net/JOHNYXUU/article/details/105870308

2、Kaggle

Kaggle 和 Colab 都是 Google 提供的服务,登陆不需要梯子,但不用梯子,加载页面速度有些慢。

显卡:V100、P100、T4 等训练主流显卡,显存 16 G。

磁盘存储:5 G。

时间限制:每次 12 个小时。

使用教程:https://www.cnblogs.com/moonfan/archive/2004/01/13/12256832.html

3、阿里云天池

阿里云天池提供的 GPU,也不错,并且国内的服务,不需要梯子,就是文件上传速度慢了点。

显卡:V100、P100、T4 等训练主流显卡,显存 16 G。

磁盘存储:5 G。

时间限制:每次 8 个小时。

使用教程:https://blog.csdn.net/hanx09/article/details/107705720

4、百度 AI studio

百度 AI studio 提供的 GPU 有点豪,显存和磁盘存储都很大,有详细的文档和视频,但只能使用 Paddle 框架。

显卡:V100、P100、T4 等训练主流显卡,显存 32 G。

磁盘存储:100 G。

时间限制:每次 10 个小时。

使用教程:https://www.cnblogs.com/Kobaayyy/p/12592191.html

三、絮叨

白嫖一时爽,一直白嫖一直爽。但白嫖也有一些限制,真想长期学习,还是有必要配置一台 GPU 电脑的。

3000 元左右的显卡,跑个算法,训练个小任务,完全够用。

多香啊,最主要的是学累了,还能打一打游戏。



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3