首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

#torch

PyTorch使用------张量数值计算

小言从不摸鱼

PyTorch 计算的数据都是以张量形式存在, 我们需要掌握张量各种运算. 并且, 我们可以在 CPU 中运算, 也可以在 GPU 中运算.

8910

PyTorch使用------自动微分模块

小言从不摸鱼

自动微分(Autograd)模块对张量做了进一步的封装,具有自动求导功能。自动微分模块是构成神经网络训练的必要模块,在神经网络的反向传播过程中,Autograd...

10510

Yolov8 源码解析(四十二)

ApacheCN_飞龙

17410

PyTorch使用------张量的创建和数值计算

小言从不摸鱼

PyTorch 是一个 Python 深度学习框架,学习PyTorch在当今深度学习领域至关重要。PyTorch以其动态计算图、易于使用的API和强大的社区支持...

6110

PyTorch从入门到放弃之张量模块

愷龍

可以用torch.stack()函数将多个张量合并,torch.stack()函数和torch.cat()函数有略微的差别,torch.stack()函数用于进...

7110

【AI大模型】Transformers大模型库(六):torch.cuda.OutOfMemoryError: CUDA out of memory解决

LDG_AGI

7B的baichuan、qwen等模型出厂默认为float32,占用显存32G,对于V100的单卡,很容易爆显存。需要在AutoModelForCausalLM...

21010

【计算机视觉】三、图像处理——实验:图像去模糊和去噪、提取边缘特征

Qomolangma

  二维卷积运算是信号处理和图像处理中常用的一种运算方式,当给定两个二维离散信号或图像

10610

【计算机视觉】三、图像处理——实验:图像去模糊和去噪、提取边缘特征

Qomolangma

  二维卷积运算是信号处理和图像处理中常用的一种运算方式,当给定两个二维离散信号或图像

10610

【深度学习实验】前馈神经网络(二):使用PyTorch实现不同激活函数(logistic、tanh、relu、leaky_relu)

Qomolangma

前馈神经网络的优点包括能够处理复杂的非线性关系,适用于各种问题类型,并且能够通过训练来自动学习特征表示。然而,它也存在一些挑战,如容易过拟合、...

12710

【深度学习入门篇 ⑦】PyTorch池化层

@小森

假设输入的尺寸是(𝑁,𝐶,𝐻,𝑊),输出尺寸是(𝑁,𝐶,𝐻𝑜𝑢𝑡,𝑊𝑜𝑢𝑡),kernel_size是(𝑘𝐻,𝑘𝑊),可以写成下面形式 :

10210

AI: 从零开始训练一个最小化的Transformer聊天机器人

运维开发王义杰

这里将介绍如何从零开始,使用Transformer模型训练一个最小化的聊天机器人。该流程将尽量简化,不依赖预训练模型,并手动实现关键步骤,确保每一步都容易理解。

20210

Transformers 4.37 中文文档(九十七)

ApacheCN_飞龙

X-CLIP 模型是由 Bolin Ni、Houwen Peng、Minghao Chen、Songyang Zhang、Gaofeng Meng、Jianlo...

11610

Transformers 4.37 中文文档(九十六)

ApacheCN_飞龙

VipLlava 模型是由 Mu Cai、Haotian Liu、Siva Karthik Mustikovela、Gregory P. Meyer、Yunin...

31310

Transformers 4.37 中文文档(九十二)

ApacheCN_飞龙

OWLv2 是由 Matthias Minderer、Alexey Gritsenko 和 Neil Houlsby 在《扩展开放词汇目标检测》中提出的。OWL...

23710

Transformers 4.37 中文文档(九十一)

ApacheCN_飞龙

MGP-STR 模型由 Peng Wang、Cheng Da 和 Cong Yao 在多粒度预测用于场景文本识别中提出。MGP-STR 是一个概念上简单但强大的...

23310

Transformers 4.37 中文文档(八十三)

ApacheCN_飞龙

BLIP-2 模型由 Junnan Li、Dongxu Li、Silvio Savarese、Steven Hoi 在BLIP-2: Bootsrapping ...

31710

Transformers 4.37 中文文档(七十二)

ApacheCN_飞龙

Swin2SR 模型是由 Marcos V. Conde、Ui-Jin Choi、Maxime Burchi、Radu Timofte 在《Swin2SR:用于...

24910

Transformers 4.37 中文文档(七十一)

ApacheCN_飞龙

SegFormer 模型是由 Enze Xie、Wenhai Wang、Zhiding Yu、Anima Anandkumar、Jose M. Alvarez、...

26510

Transformers 4.37 中文文档(七十)

ApacheCN_飞龙

MobileViTV2 模型是由 Sachin Mehta 和 Mohammad Rastegari 在移动视觉 transformers 的可分离自我关注中提...

13110

Transformers 4.37 中文文档(六十八)

ApacheCN_飞龙

FocalNet 模型是由 Jianwei Yang、Chunyuan Li、Xiyang Dai、Lu Yuan、Jianfeng Gao 在焦点调制网络中提...

13010
领券