首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Pytorch的to(device)用法

    如下所示:device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")model.to(device)这两行代码放在读取数据之前...mytensor = my_tensor.to(device)这行代码的意思是将所有最开始读取数据时的tensor变量copy一份到device所指定的GPU上去,之后的运算都在GPU上进行。...这句话需要写的次数等于需要保存GPU上的tensor变量的个数;一般情况下这些tensor变量都是最开始读数据时的tensor变量,后面衍生的变量自然也都在GPU上如果是多个GPU在代码中的使用方法为:device...= torch.device("cuda:0" if torch.cuda.is_available() else "cpu")model = Model()if torch.cuda.device_count...() > 1: model = nn.DataParallel(model,device_ids=[0,1,2]) model.to(device) Tensor总结(1)Tensor 和 Numpy

    18.1K10
    领券