首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >SpringBoot利用spring-boot-starter-data-redis整合Redis

SpringBoot利用spring-boot-starter-data-redis整合Redis

作者头像
用户1956326
发布于 2019-07-04 13:21:03
发布于 2019-07-04 13:21:03
11.1K0
举报
文章被收录于专栏:猿GG编程猿GG编程

Redis是一种高性能的非关系型数据库。redis作用在内存,性能极高。SpringBoot同样可以把Redis整合到项目里。

首先,第一步就是为项目添加Redis依赖。在SpringBoot下有spring-boot-starter-data-redis,使用Redis就相当的简单。

第二步添加上Redis配置信息。包括Redis服务器的IP、端口、密码等信息,前提是已经安装好Redis服务,密码等信息必须和服务器一致。

第三步,接下来就要写例子来使用使用Redis,在这个例子中使用的是框架封装Redis的类StringRedisTemplate。为啥用这个呢?,因为例子设计的k-v都是String类型,官方建议符合这种格式的推荐使用 StringRedisTemplate。当k-v是非String类型的object时,推荐使用RedisTemplate。

第四步测试下结果,按照controller里写的路径请求下得到employee里设置的参数。

这样看不出redis有没有写入内存,使用redis下的redis-cli可以访问redis数据。这种方式访问数据的时候展示不是很友好。推荐使用RedisDesktopManager,这个图形界面工具可是比命令行好使。

这个工具看上去就友好多了,这里面包含了所有写入的值。里面的json字符串也自动转了。

这个controller里的redisTemplete.opsForValue().set("redis--3","redis cache 1")很麻烦,可以再封装一层,这个用起来也省事,这一长串尾巴看起来就不爽。

逐步替换下看起来就爽多了。千万不要忘记注册组件@Component。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-07-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 猿GG编程 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
【哈工大版】动态ReLU:自适应参数化ReLU及Keras代码(调参记录10)
本文在调参记录9的基础上,在数据增强部分添加了shear_range = 30,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。
用户7368967
2020/05/27
5170
【哈工大版】动态ReLU:自适应参数化ReLU及Keras代码(调参记录10)
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录14)
本文介绍哈工大团队提出的一种动态ReLU(Dynamic ReLU)激活函数,即自适应参数化ReLU激活函数,原本是应用在基于一维振动信号的故障诊断,能够让每个样本有自己独特的ReLU参数,在2019年5月3日投稿至IEEE Transactions on Industrial Electronics,2020年1月24日录用,2020年2月13日在IEEE官网公布。
用户7368967
2020/05/27
4730
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录14)
深度残差网络+自适应参数化ReLU激活函数(调参记录17)
在调参记录16的基础上,增加了两个残差模块,继续测试其在Cifar10数据集上的效果。
用户6915903
2020/05/04
3210
深度残差网络+自适应参数化ReLU激活函数(调参记录17)
深度残差网络+自适应参数化ReLU激活函数(调参记录7)
https://blog.csdn.net/dangqing1988/article/details/105628681
用户6915903
2020/04/22
3760
深度残差网络+自适应参数化ReLU激活函数(调参记录7)
深度残差网络+自适应参数化ReLU激活函数(调参记录6)
https://blog.csdn.net/dangqing1988/article/details/105627351
用户6915903
2020/04/22
4430
深度残差网络+自适应参数化ReLU激活函数(调参记录6)
深度残差网络+自适应参数化ReLU激活函数(调参记录1)
本文采用了深度残差网络和自适应参数化ReLU激活函数,构造了一个网络(有9个残差模块,卷积核的个数比较少,最少是8个,最多是32个),在Cifar10数据集上进行了初步的尝试。
用户6915903
2020/04/21
3770
深度残差网络+自适应参数化ReLU激活函数(调参记录1)
深度残差网络+自适应参数化ReLU激活函数(调参记录8)
https://blog.csdn.net/dangqing1988/article/details/105670981
用户6915903
2020/04/22
3960
深度残差网络+自适应参数化ReLU激活函数(调参记录8)
深度残差网络+自适应参数化ReLU激活函数(调参记录15)
训练集上还没拟合得很好,测试集准确率已经低于训练集准确率大约2.5%了。这是同时存在欠拟合和过拟合呀!
用户6915903
2020/05/04
3440
深度残差网络+自适应参数化ReLU激活函数(调参记录15)
深度残差网络+自适应参数化ReLU激活函数(调参记录20)Cifar10~94.17%
在之前的调参记录18中,是将深度残差网络ResNet中的所有ReLU都替换成了自适应参数化ReLU(Adaptively Parametric ReLU,APReLU)。
用户6915903
2020/05/17
4370
深度残差网络+自适应参数化ReLU激活函数(调参记录20)Cifar10~94.17%
深度残差网络+自适应参数化ReLU激活函数(调参记录19)Cifar10~93.96%
由于调参记录18依然存在过拟合,本文将自适应参数化ReLU激活函数中最后一层的神经元个数减少为1个,继续测试深度残差网络+自适应参数化ReLU激活函数在Cifar10数据集上的效果。
用户6915903
2020/05/09
4270
深度残差网络+自适应参数化ReLU激活函数(调参记录19)Cifar10~93.96%
深度残差网络+自适应参数化ReLU激活函数(调参记录5)
https://blog.csdn.net/dangqing1988/article/details/105610584
用户6915903
2020/04/22
4770
深度残差网络+自适应参数化ReLU激活函数(调参记录5)
深度残差网络+自适应参数化ReLU激活函数(调参记录12)
本文在调参记录10的基础上,在数据增强部分添加了zoom_range = 0.2,将训练迭代次数增加到5000个epoch,批量大小改成了625,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。
用户6915903
2020/05/04
4320
深度残差网络+自适应参数化ReLU激活函数(调参记录12)
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录13)
从以往的调参结果来看,过拟合是最主要的问题。本文在调参记录12的基础上,将层数减少,减到9个残差模块,再试一次。
用户7368967
2020/05/27
4540
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录13)
【哈工大版】动态ReLU:自适应参数化ReLU及Keras代码(调参记录11)
本文在调参记录10的基础上,将残差模块的数量从27个增加到60个,测试采用自适应参数化ReLU(APReLU)激活函数的深度残差网络,在Cifar10图像集上的效果。
用户7368967
2020/05/27
6180
【哈工大版】动态ReLU:自适应参数化ReLU及Keras代码(调参记录11)
一种Dynamic ReLU:自适应参数化ReLU激活函数(调参记录1)
自适应参数化ReLU是一种动态ReLU(Dynamic ReLU)激活函数,在2019年5月3日投稿至IEEE Transactions on Industrial Electronics,在2020年1月24日(农历大年初一)录用,于2020年2月13日在IEEE官网发布预览版。
用户7368967
2020/05/23
5240
一种Dynamic ReLU:自适应参数化ReLU激活函数(调参记录1)
深度残差网络+自适应参数化ReLU激活函数(调参记录10)
本文在调参记录9的基础上,在数据增强部分添加了shear_range = 30,测试Adaptively Parametric ReLU(APReLU)激活函数在Cifar10图像集上的效果。
用户6915903
2020/04/24
5520
深度残差网络+自适应参数化ReLU激活函数(调参记录10)
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录12)
本文在调参记录10的基础上,在数据增强部分添加了zoom_range = 0.2,将训练迭代次数增加到5000个epoch,批量大小改成了625,测试自适应参数化ReLU激活函数在Cifar10图像集上的效果。
用户7368967
2020/05/27
4610
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录12)
【哈工大版】Dynamic ReLU:自适应参数化ReLU及Keras代码(调参记录3)
本文继续测试深度残差网络+自适应参数化ReLU激活函数在Cifar10图像集上的准确率,残差模块仍然设置成27个,卷积核的个数分别增加至16个、32个和64个,迭代次数从1000个epoch减到了500个epoch(主要是为了省时间)。
用户7368967
2020/05/27
3490
【哈工大版】Dynamic ReLU:自适应参数化ReLU及Keras代码(调参记录3)
深度残差网络+自适应参数化ReLU激活函数(调参记录16)
在调参记录15的基础上,将第一个残差模块的卷积核数量,从16个增加到32个,同时将自适应参数化ReLU激活函数中第一个全连接层的神经元个数改成原先的1/16,继续测试其在Cifar10数据集上的效果。
用户6915903
2020/05/04
4740
深度残差网络+自适应参数化ReLU激活函数(调参记录16)
深度残差网络+自适应参数化ReLU激活函数(调参记录11)
本文在调参记录10的基础上,将残差模块的数量从27个增加到60个,测试采用Adaptively Parametric ReLU(APReLU)激活函数的深度残差网络,在Cifar10图像集上的效果。
用户6915903
2020/05/04
3690
深度残差网络+自适应参数化ReLU激活函数(调参记录11)
推荐阅读
【哈工大版】动态ReLU:自适应参数化ReLU及Keras代码(调参记录10)
5170
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录14)
4730
深度残差网络+自适应参数化ReLU激活函数(调参记录17)
3210
深度残差网络+自适应参数化ReLU激活函数(调参记录7)
3760
深度残差网络+自适应参数化ReLU激活函数(调参记录6)
4430
深度残差网络+自适应参数化ReLU激活函数(调参记录1)
3770
深度残差网络+自适应参数化ReLU激活函数(调参记录8)
3960
深度残差网络+自适应参数化ReLU激活函数(调参记录15)
3440
深度残差网络+自适应参数化ReLU激活函数(调参记录20)Cifar10~94.17%
4370
深度残差网络+自适应参数化ReLU激活函数(调参记录19)Cifar10~93.96%
4270
深度残差网络+自适应参数化ReLU激活函数(调参记录5)
4770
深度残差网络+自适应参数化ReLU激活函数(调参记录12)
4320
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录13)
4540
【哈工大版】动态ReLU:自适应参数化ReLU及Keras代码(调参记录11)
6180
一种Dynamic ReLU:自适应参数化ReLU激活函数(调参记录1)
5240
深度残差网络+自适应参数化ReLU激活函数(调参记录10)
5520
【哈工大团队】动态ReLU:自适应参数化ReLU及Keras代码(调参记录12)
4610
【哈工大版】Dynamic ReLU:自适应参数化ReLU及Keras代码(调参记录3)
3490
深度残差网络+自适应参数化ReLU激活函数(调参记录16)
4740
深度残差网络+自适应参数化ReLU激活函数(调参记录11)
3690
相关推荐
【哈工大版】动态ReLU:自适应参数化ReLU及Keras代码(调参记录10)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档