首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

将Colab上的CUDA版本降级至9

在Google Colab上降级CUDA版本较为困难,因为Colab预装了特定版本的CUDA和cuDNN,并且它们会自动更新

  1. 首先,检查当前CUDA版本:
代码语言:javascript
复制
!nvcc --version
  1. 卸载当前CUDA版本:
代码语言:javascript
复制
!apt-get --purge remove cuda nvidia-cuda-toolkit
!dpkg -l | grep cuda- | awk '{print $2}' | xargs -n1 dpkg --purge
!apt-get --purge remove cuda-*
!apt autoremove
!apt-get update
  1. 安装CUDA 9:
代码语言:javascript
复制
!wget https://developer.nvidia.com/compute/cuda/9.0/Prod/local_installers/cuda-repo-ubuntu1804-9-0-local_9.0.176-1_amd64.deb
!dpkg -i cuda-repo-ubuntu1804-9-0-local_9.0.176-1_amd64.deb
!apt-key add /var/cuda-repo-9-0-local/7fa2af80.pub
!apt-get update
!apt-get install cuda-9.0
  1. 安装cuDNN 7(与CUDA 9兼容的版本):
代码语言:javascript
复制
!wget https://developer.nvidia.com/compute/machine-learning/cudnn/secure/v7.6.5/prod/9.0_20191031/cudnn-9.0-linux-x64-v7.6.5.32.tgz
!tar -xvf cudnn-9.0-linux-x64-v7.6.5.32.tgz
!cp cuda/include/cudnn.h /usr/local/cuda/include
!cp cuda/lib64/libcudnn* /usr/local/cuda/lib64
!chmod a+r /usr/local/cuda/include/cudnn.h /usr/local/cuda/lib64/libcudnn*
  1. 更新环境变量:
代码语言:javascript
复制
import os
os.environ["CUDA_HOME"] = "/usr/local/cuda"
os.environ["PATH"] = "/usr/local/cuda/bin:" + os.environ["PATH"]
os.environ["LD_LIBRARY_PATH"] = "/usr/local/cuda/lib64:" + os.environ["LD_LIBRARY_PATH"]
  1. 验证CUDA版本:
代码语言:javascript
复制
!nvcc --version
页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

用谷歌Colab免费批量本地电脑Mp3语音文件转文字

接下来使用Openaiwhisper模型:https://github.com/openai/whisper 在ChatGPT中输入提示词: 你是一个编程高手,写一个谷歌colabipynb脚本,实现任务如下...; 从谷歌Drive中调用Whisper large-v3-turbo模型所有音频文件转录成文字,保存为txt文本文件,txt文件名和音频文件名保持同一个名称,txt文件保存在和音频文件同一个文件夹中...: # 安装必要库 !...https://colab.research.google.com/ 新建笔记本,输入源代码。...注意:在免费版Colab 中,笔记本最长可以运行12 小时 实测一个28分钟mp3,在使用CPU时候,耗时1小时,而如果改用T4 GPU,仅耗时3分钟。所以尽量使用GPU,会提速很多。

8810
  • Colab

    下图所示为Kaggle和Colab硬件配置信息,更多内容可以参考谷歌官方文档(https://docs.google.com/spreadsheets/d/1YBNlI9QxQTiPBOhsSyNg6EOO9LH2M3zF7ar88SeFQRk...代码分别在Kaggle和Colab实施。Batch size 设为16,FastAI版本是1.0.48。使用FastAI内置分析器,统计训练和测试总时间,两平台所用时间如下。 ?...当我Colabbatch size设为256,然后开始训练模型时,Colab抛出了一个警告,其中写道:我正在使用GPU具有11.17GB显存。具体如下图所示。 ?...通过调查发现,Kaggle默认包中torch和torchvision版本都很老,将它们版本更新到和Colab一样后,Kaggle运行时间并没有改变。...但是这一个发现表明,Colab默认包版本比Kaggle更新要快。 前文提到硬件差异,似乎并不是导致Kaggle混合精度性能不佳原因。

    6.4K50

    Ubuntu20.04安装cuda10.1「建议收藏」

    安装前准备 CUDA主要用途是深度学习,而目前主流深度学习框架Tensorflow2最高支持CUDA 10.1,因此本文讲解在Ubuntu 20.04系统安装CUDA 10.1主要过程。...关键点:gcc降级 因为Ubuntu20.04自带gcc版本为9.3,而cuda10.1不支持gcc-9,因此要手动安装gcc-7,命令如下: sudo apt-get install gcc...由于你系统中已经有了NVIDIA显卡驱动,如果不想安装CUDA 10.1中附带驱动,移动到Driver选项,按空格键将该项取消。如下图。..../ 解压出 cuda/include/cudnn.h文件复制到/usr/local/cuda/include文件夹 cuda/lib64/下所有文件复制到/usr/local/cuda/lib64...如发现本站有涉嫌侵权/违法违规内容, 请发送邮件 举报,一经查实,本站立刻删除。

    1.2K20

    解决Google colab安装GPU版本mxnet报错:libnvrtc.so.11.2: cannot open shared object file: No such file...

    文章目录 一、问题 二、解决方法 ---- 一、问题 ---- 二、解决方法 查看 NVIDIA_CUDA 版本,这里有有个坑:!nvidia-smi方法查看版本为11.2,而 !...Colab有时会为您实例提供K80 GPU,有时提供T4 GPU,有时可能还会提供其他GPU。torch/mxnet/TF最新版本将在 T4 GPU 运行。...它们不能在 K80 运行,因为他们已经放弃了对旧 K80 GPU(计算能力3.7)支持。...您可以尝试重新启动 Colab 实例,看看是否得到了 T4(实际经验,早上挺容易获得T4 GPU),或者可以尝试找到这些框架版本,它们仍然支持K80。...在Google colab Colaboratory,安装CUDA和GPU版本MXnet Error with MXNET and CUDA in Google Colab: no kernel image

    1.8K10

    Colab 免费提供 Tesla T4 GPU,是时候薅羊毛了

    机器之心报道 机器之心编辑部 近日,Colab 全面 K80 替换为 Tesla T4,新一代图灵架构、16GB 显存,免费 GPU 也能这么强。 想要获取免费算力?...谷歌计算引擎机器学习推理性能高达 4267 张图像/秒,而延迟低 1.1 毫秒。...而 T4 以更低成本支持所有这些,这使得它成为扩展分布式训练或低功率试验绝佳选择。T4 拥有 2560 个 CUDA 核心,对于我们在 Colab 试验模型已经足够了。...如下展示了 T4 和 V100 之间差别,T4 支持多精度加速,确实非常适合做推理,以后预训练模型放在 Colab 也是极好。 ?...K80 主要具有以下特性: 带有双 GPU 设计 4992 个 NVIDIA CUDA 内核,可显著加速应用程序性能 通过 NVIDIA GPU 加速提升双精度浮点性能 2.91 Teraflops

    3.5K60

    深度学习之环境配置

    (1) 注意cuda、cudnn、cuda driver和cudatoolkit版本 cuda是nvidia推出用于自家GPU并行计算框架,也就是说cuda只能在nvidiaGPU运行,而且只有当要解决计算问题是可以大量并行计算时候才能发挥...cuda driver即cuda驱动器,是用来支持cuda运行必备程序。而cudatoolkit则是cuda相关工具包。 以上四者之间必须有个版本对应和匹配问题。...有时候安装keras GPU版本时候会默认安装cudatoolikit 10.0,这时候如果你cuda是9.0版本的话,一般会报个CUDA driver version is insufficient...和cuda driver之间版本对应关系: [在这里插入图片描述] 在版本不匹配时,适当降低或者更新驱动器版本即可。...colab目前提供GPU已经由之前K80升级到了Tesla T4: [在这里插入图片描述] kaggle提供则是Tesla P100: [在这里插入图片描述] colab地址:https

    63220

    Ubuntu 16.04+CUDA7.5+Caffe深度学习环境搭建

    cuda动态库添加到动态库管理器 sudo vi /etc/ld.so.conf.d/cuda.conf 添加: /usr/local/cuda/lib64.../libcudnn* /usr/local/cuda/lib64 注意:拷贝后链接删除重新建立链接,否则,拷贝是多个多个不同名字相同文件,链接关系参见cudnn解压后文件夹。...,需要收到下载,将其拷贝opencv-3.1.0/3rdparty/ippicv/downloads/linux-8b449a536a2157bcad08a2b9f266828b目录内,重新执行配置命令...++版本过高造成,只需要在opencv-3.1.0目录下CMakeList.txt 文件开头加入: set(CMAKE_CXX_FLAGS “${CMAKE_CXX_FLAGS} -D_FORCE_INLINES...目前caffe不支持高于5.3gcc,理论可通过对gcc,g++降级解决,但是降级后还会引起其他兼容性问题,因此并不能解决实际问题,下面附上降级方法。解决方法在后面。

    1K30

    深度学习环境配置有哪些坑?

    特别注意cuda、cudnn、cuda driver和cudatoolkit版本 cuda是nvidia推出用于自家GPU并行计算框架,也就是说cuda只能在nvidiaGPU运行...cuda driver即cuda驱动器,是用来支持cuda运行必备程序。而cudatoolkit则是cuda相关工具包。 以上四者之间必须有个版本对应和匹配问题。...有时候安装keras GPU版本时候会默认安装cudatoolikit 10.0,这时候如果你cuda是9.0版本的话,一般会报个CUDA driver version is insufficient...和cuda driver之间版本对应关系: 在版本不匹配时,适当降低或者更新驱动器版本即可。...免费GPU资源 最后,如果大家没有GPU资源又或者嫌配置太糟心,我们还是有免费GPU可以褥。一个是谷歌colab,自动支持GPU,大家可以直接去褥。

    1.7K30

    Pytorch深度学习实战教程(一):开启炼丹模式,语义分割基础与环境搭建

    语义分割(semantic segmentation) : 就是按照“语义”给图像目标类别中每一点打一个标签,使得不同种类东西在图像被区分开来。...最终得到结果为: 当只有一层通道被重叠原始图像时,我们称之为mask,即只指示某一特定类别所存在区域。...我们需要根据自己显卡型号选择支持CUDA版本,例如RTX 2060 Super支持CUDA 10,下载地址:点击查看 傻瓜式安装,很简单。...这里可能需要区分下Python版本CUDA版本。 Python版本查看方法:直接在命令行中输入python,会看到Python版本。...CUDA版本查看方法,在命令行中输入nvidia-smi: 确定好版本后,就可以通过Pytorch官网提供指令安装GPU版本Pytorch了。 至此,基础环境搭建已经完成,恭喜。

    2.2K21

    保姆级GPU白嫖攻略

    因为,主流推理框架,都需要在 NVIDIA 推出 CUDA 运算平台上进行,使用上这也是最方便。...所以,如果你没有 N 卡,比如你用 Mac 本或者 A 卡电脑,那么你只能使用 CPU 版本深度学习框架。 深度学习使用 GPU 运算很快,用 CPU 巨慢无比。 ?...1、Colab Colab 个人使用感觉体验最好,并且很多开源算法,都直接提供了 colab 运行脚本。 ? 无需配置开发环境,直接运行体验算法效果。...但是它也有明显问题,需要梯子,毕竟 Google 产品。 只需要在 Google Drive ,安装 colab 即可使用。...如果需要上传数据,可以上传到 Google Drive ,并在 colab 中挂载,就可以直接访问。 显卡:V100、P100、T4 等训练主流显卡,显存 16 G。

    6.3K10

    为深度学习选择最好GPU

    下面逐一探讨这些方面,希望能让你更好地理解什么对你来说是重要。 GPU内存 答案是,越多越好! 这实际取决于你任务,以及这些模型有多大。...也就是说 桌面的RTX 20 系列或高版本,或服务器 “T”或“A”系列。...所以在选择2手卡时一定要看清楚是否支持最新版本驱动和CUDA,这是最重要。 高端游戏卡 VS 工作站/服务器卡 老黄基本把卡分成了两部分。消费类显卡和工作站/服务器显卡(即专业显卡)。...在写本文时,通过Colab可以获得以下GPU: 在前面也提到了,K80有24GBRAM和4992个CUDA核心,它基本是两个K40卡连在一起。...这意味着当你在Colab中使用K80时,你实际可以访问一半的卡,所以也就是只有12GB和2496个CUDA内核。 总结 最后现在4090还是处于耍猴状态,基本要抢购或者加价找黄牛。

    1.6K40

    为深度学习选择最好GPU

    下面逐一探讨这些方面,希望能让你更好地理解什么对你来说是重要。 GPU内存 答案是,越多越好! 这实际取决于你任务,以及这些模型有多大。...也就是说 桌面的RTX 20 系列或高版本,或服务器 “T”或“A”系列。...所以在选择2手卡时一定要看清楚是否支持最新版本驱动和CUDA,这是最重要。 高端游戏卡 VS 工作站/服务器卡 老黄基本把卡分成了两部分。消费类显卡和工作站/服务器显卡(即专业显卡)。...在写本文时,通过Colab可以获得以下GPU: 在前面也提到了,K80有24GBRAM和4992个CUDA核心,它基本是两个K40卡连在一起。...这意味着当你在Colab中使用K80时,你实际可以访问一半的卡,所以也就是只有12GB和2496个CUDA内核。

    2.4K30

    论文复现前奏篇:漫漫长路之Caffe-C3D

    发现了最大bug在于我没有把cuda装好,痛苦流涕,随后,两次按照网上教程系统崩溃了,只有重新来过,在然后,就直接看官方issue,结果搞成功了,于是写出这篇文章,希望对大家有点帮助,欢迎转发,点赞等...GCC与G++降级 我使用是Ubuntu18.04系统,该系统默认装gcc为7.3,而cuda支持版本是6.0以下,所以我们需要降级,这里选择版本为gcc5.5。...sudo dpkg -i cuda-repo-ubuntu1704-9-0-local_9.0.176-1_amd64.deb sudo apt-key add /var/cuda-repo-9-0-local...注:解压是文件夹下所有文件复制到cifar10目录下!通过这样操作可以不用执行这个脚本,当然也就是这个脚本作用! 2.2 转换数据集格式 ....最后,在测试集精度为75%左右!

    1.3K10

    nvidia显卡无法弹出或拔出_英伟达控制面板显示未连接到gpu

    上个月在新入手笔记本安装了一个CUDA开发环境,并选择安装了GeForce Experience工具,前两天打开GeForce Experience工具浏览时,工具提醒可以更新NVIDIA显卡驱动...百度一番,发现有很多网友都有遇到类似的问题,基本都认为是显卡驱动更新导致,并建议显卡驱动降级为原来版本,但原来具体是什么版本我也不记得了。...于是NVIDIA官方网站下载了本机显卡型号对应几个相对较老版本,重新安装驱动: 结果一番周折多次重启电脑之后,新下载驱动装好了之后,调用CUDA应用程序还是报同样错误,难道还要装更老版本驱动...查看当前驱动版本版本号为359,还好没有从官网上一个个下载试安装,要不然被折腾不死也惨。...如发现本站有涉嫌侵权/违法违规内容, 请发送邮件 举报,一经查实,本站立刻删除。

    1.5K40

    当GAN生成图像可以卡音效,这个Python包只需几行代码就能实现「音画同步」

    这些模型在特定「风格」图像数据集上进行训练,使之能够输出与训练图像风格一致无穷多张图像。...现在,有趣部分到了:如果我们从音乐中获取声波,从声波中提取数值(如振幅)并添加输入向量,会发生什么?...这些音高振幅对传输第二个输入向量(类别向量)数字造成影响,而这由模型生成对象来决定。...StyleGAN 权重 如果你自己训练过 StyleGAN,或者在网上获得了一些模型权重,你可以选择文件路径传输这些权重,作为风格参数值。...事实,该函数甚至不需要使用 GAN,它可以是能够输入向量转换成图像任意函数。

    99820
    领券