首页
学习
活动
专区
工具
TVP
发布

python pytorch AI机器学习实践

专栏成员
74
文章
121217
阅读量
18
订阅数
CIFAR10数据集实战-ResNet网络构建(下)
这里注意到由[2, 64, 32, 32]到[2, 128, 32, 32],channel数量翻倍,而长和宽没有变化。这样势必会导致x的维度会越来越大。
用户6719124
2020-02-24
9590
CIFAR10数据集实战-ResNet网络构建(中)
再定义一个ResNet网络 我们本次准备构建ResNet-18层结构 class ResNet(nn.Module): def __init__(self): super(ResNet, self).__init__() self.conv1 = nn.Sequential( nn.Conv2d(3, 64, kernel_size=3, stride=1, padding=1), nn.BatchNorm2d(64
用户6719124
2020-02-24
6690
CIFAR10数据集实战-ResNet网络构建(上)
之前讲到过,ResNet包含了短接模块(short cut)。本节主要介绍如何实现这个模块。
用户6719124
2020-01-14
1.1K0
CIFAR10数据集实战-LeNet5神经网络(下)
下面开始加入test部分 先写入test部分代码 for x, label in cifar_test: x, label = x.to(device), label.to(device) logits = model(x) pred = logits.armax(dim=1) # 用argmax选出可能性最大的值的索引 为进行比对 定义正确率 写入对比 total_correct += torch.eq(pred, label).float().sum().item()
用户6719124
2020-01-02
6390
CIFAR10数据集实战-LeNet5神经网络(中)
本节介绍在LeNet5中求loss的操作。 本结构使用CrossEntropyLoss进行求loss 首先引入工具包 import torch.nn.functional as F 加入代码 self.criteon = nn.CrossEntropyLoss() 返回logits return logits 下面开始写运行函数 返回main.py文件中 为加快运算速度,定义硬件加速 device = torch.device('cuda') 设置迭代次数 for epoch in range(1000):
用户6719124
2019-12-19
6070
CIFAR10数据集实战-LeNet5神经网络(上)
上次课我们讲解了对于CIFAR10数据读取部分代码的编写,本节讲解如何编写经典的LeNet5神经网络。
用户6719124
2019-12-19
8820
CIFAR10数据集实战-数据读取部分(下)
这里设置了batch_size=32,对于一般硬件配置来说32是个较合理的数值,若硬件性能够强可设更高。
用户6719124
2019-12-19
1.6K0
CIFAR10数据集实战-数据读取部分(上)
登录http://www.cs.toronto.edu/~kriz/cifar.html网站,可以自行下载数据集。
用户6719124
2019-12-19
2.3K0
Pytorch小技巧-数据增强(下)
局部增强,一般裁剪操作是配合图片旋转操作共同进行,先裁减掉一部分,再进行旋转即可。
用户6719124
2019-12-09
1.7K0
Pytorch小技巧-数据增强(上)
那么在现实生活中,想要得到大量的数据,不仅要收集各种情景下、各种角度、各个位置的照片,还有确保数据的多样性。
用户6719124
2019-12-05
2.1K0
pytorch基础知识-Batch Norm(下)
上图是对前节课所讲的小结,通过Normalize将[6, 3, 784]分为3个通道的[6, 784]数据。使得数据结果整体分布于(0~正负1)区间内。
用户6719124
2019-12-05
2.8K0
Pytorch-nn.Module
(1)nn.Module在pytorch中是基本的复类,继承它后会很方便的使用nn.linear、nn.normalize等。
用户6719124
2019-12-05
6300
Pytorch-经典卷积网络介绍(下)
上次课介绍了LeNet-5和AlexNet,本节课介绍VGG和GoogleNet。
用户6719124
2019-12-04
5390
Pytorch-经典卷积网络介绍(上)
y轴是错误率。由图看出在较早期的拘役2⁓4层神经网络结构的shallow错误率高达25.8%和28.2%。而后在alexnet出现后,一下子将错误率降到了16.4%、而后具有19层结构的VGG网络和22层的GoogleNet进一步将错误率降到了7.3%和6.7%。而后发现的ResNet更是将错误率降到了3.57%。
用户6719124
2019-12-04
4670
Pytorch-ResNet(残差网络)-下
在左图(准确率)的比较中,从AlexNet到GoogleNet再到ResNet,准确率逐渐提高。20层结构是很多网络结构性能提升的分水岭,在20层之前,模型性能提升较容易。但在20层之后,继续添加层数对性能的提升不是很明显。但ResNet很好地解决了高层数带来的误差叠加问题,因此性能也随着层数的增加而提升。
用户6719124
2019-12-04
1.1K0
Pytorch-ResNet(残差网络)-上
由之前的研究,会有人疑问是否往往更深层次的神经网络具有更佳的表现?这种问题现在还无法进行完美的解答。
用户6719124
2019-12-04
8980
pytorch基础知识-Batch Norm(上)
Batch Normalization(批量标准化)是深度学习中经常使用的,本节介绍它的定义和用法。
用户6719124
2019-11-23
8760
pytorch基础知识-pooling(池化)层
pooling(池化)层原则上为采样操作,与upsample(上采样)不同的是,pooling为下采样操作,即将feature map变小的操作。
用户6719124
2019-11-21
9.8K0
Pytorch-卷积神经网络的运算流程(下)
这里第一个3代表3个通道,input channel数量为之前的1,3 3 代表了所取的kernel的size。
用户6719124
2019-11-20
1.1K0
Pytorch-卷积神经网络的运算流程(中)
如上图中所列参数,x为1(假设batch为1)张图片、3个通道(对应于RGB三个通道)、28*28的大小。而kernel中的3代表对input的x上的三个通道上均进行卷积运算。而multi-kernels中的16泛指包括了blur、edge等16个功能、3代表对每一个通道上的逐渐进行卷积运算。
用户6719124
2019-11-18
7990
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档