Loading [MathJax]/jax/output/CommonHTML/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >五种常见云数据库的真实应用场景

五种常见云数据库的真实应用场景

作者头像
希望的田野
发布于 2020-01-16 06:56:19
发布于 2020-01-16 06:56:19
5.1K0
举报
文章被收录于专栏:信息化漫谈信息化漫谈

2020年

云数据库的需求不断涌现

随着客户上云的加快,客户越来越希望直接采用云上的数据库系统支撑业务发展,作为服务商来讲,了解云上的数据库的应用场景及常见特性成为必然。否则,将出现与客户交流困难,影响项目成效的麻烦事。今天我们讲五种常见的云数据库,这些内容也是在与客户沟通交流中的常见问题。

一、金融级Oracle

应用场景:在政府的大型应用系统、企业的涉金融级应用系统中,一般都会沿用昂贵的Oracle数据库系统。例如,期货的交易系统后台数据库、公司内部财务系统的后台数据库。

其优势:高性能、高可靠性。Oracle数据库作为元老级的产品,的确拥有其过人之处,直到现在去IOE大当其道的今天,仍然在众多的核心应用系统中存在。

云数据库如何解决:因为Oracle拥有自己的云计算整体架构,不允许公有云厂商在自己的云平台架构Paas级的数据库产品,因此现在主流的公有云厂商均没有直接的Oracle云产品。为了解决这个问题,许多公有云厂商推出了自己的自研兼容性产品,如ali的OceanBase、RDS PAAS版。

Oracle上云的解决方案:Oracle上云一般都会用三个特性---RAC、DG、RMAN。其中,RAC用于解决于计算的高可用和高性能,一般都会要求云服务商提供共享存储的产品。DG用于实时的数据秒级同步,一般用于云上、云下数据的数据同步,避免极端情况数据无法找回的情况。RMAN用于数据的迁移、定期数据备份

二、MySQL成为主流

应用场景:目前的互联网公司已经大量采用MySQL作为主要业务的承载。因MySQL已被Oracle公司收购,因此现在又出现了MariaDB的开源数据库,以避免MySQL被收费的情况。例如,互联网公司的网站一般都采用MySQL。

其优势:高性能、高可靠、低成本。现在一提到数据库,往往就是MySQL出场的时候。

云数据库如何解决:现在公有云厂商有很多MySQL的标准化解决方案,云服务商一般会直接在云主机上搭建数据,提供给最终的用户使用,例如1核 2G的数据库配置,实际是云主机的配置。同时根据云主机的资源是否独享,有共享型数据库、独享型数据库。

MySQL上云的解决方案:一般都会用三个特性---主备、主从、灾备

1、例如主备,当主用的数据库云主机down时,将自动切换至备用的云门机提供数据库服务

2、例如主从,数据库提供多份的备份库,主用库用于读/写,而备份库只用于读。但与主备的区别在于,主从方式不支持主备库的故障切换。

3、例如灾备,数据库提供本地、远程的数据库定期、实时数据同步。当主用库down机时,由云平台自动切换至远程的备库,提供快速的故障切换。

三、MongoDB面向互联网

应用场景:物联网、游戏等场景大量使用MongoDB数据库。例如,四川省某石油客户使用该数据库存储采油站的大量数据,因其JSON松散式的数据格式,利于数据的任意保存、快速分析、分片存储,得到大量公司的应用。

其优势:高性能、低成本、易使用。MongoDB通过索引加速检索的性能,利于X86服务器进行分片的存储,JSON数据格式不需要预先定义。

云数据库如何解决:现在云服务商提供了MongoDB的产品,基本是云服务商的标配。

MongoDB上云的解决方案:一般会推荐采用集群式的方案,用户使用多节点进行数据的分片存储、同时使用主备方式进行计算的高可用。

四、HBase面向大容量

应用场景:在电子商务、车联网、日志等场景中均有大量的应用案例。例如,某物联网公司采用HBase存储其鞋类穿戴数据。

其优势:高性能、低成本、高伸缩性。HBase+Phoenix提供快速的SQL化检索,HBase基于其列式的存储方便放在X86服务器,而HBase根据RowKey、ColumnFamily可以进行数据在不同服务器的扩容。

云数据库如何解决:现在云服务商提供了Hbase的产品,基本是云服务商的标配。

HBase上云的解决方案:低于100G的数据可用HBase单机版。一般会推荐采用集群式的方案;如果是要求金融级的服务,还有双活版的产品,可以支持跨AZ的数据同步。

五、Redis面向快速查询

应用场景:在电子商务、游戏公司、大数据展示等场景中均有大量的应用案例。例如,某电子商务公司的大屏数据直接来源于Redis的内存数据。

其优势:高性能。Redis的主要数据放置在内存中,因此数据的查询数据相比于之前的数据库有了10倍以上的提升。

云数据库如何解决:现在云服务商提供了Redis的产品,基本是云服务商的标配。

Redis上云的解决方案:一般会推荐采用集群式的方案;如果是要求超高并发级的服务,还有读写分离版的产品。

六、不同数据库的混合使用

1、物联网的应用场景

例如:抓娃娃机的数据。该机器的监控、轨迹的数据通过flume直接采集至HBase中进行存储,通过Spark的非实时分析进行经营情况的定期分析;该机器的故障数据通过flume连接kafka,之后通过流式计算将结果放至HBase中存储,并大屏展示实时故障。而该机器的交易数据直接通过应用程序处理后,以MySQL方式进行数据的存储,中间以DTS的方式与HBase进行数据的同步。

2、高并发的MySQL场景

3、金融高可靠的MySQL场景

如果您觉得好,希望长期关注本公众号的专业、风趣、实时的信息,请在以下二维码长按,以关注。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-01-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 信息化漫谈 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
加州大学伯克利分校研究人员推出无监督强化学习基准 (URLB)
强化学习 (RL) 是一种强大的人工智能范式,用于处理各种问题,包括自动驾驶汽车控制、数字助理和资源分配等。然而即使是当今最好的 RL 代理也很窄。目前大部分 RL 算法只能解决他们所训练的单一工作,没有跨任务或跨域泛化能力。
代码医生工作室
2021/12/29
6150
加州大学伯克利分校研究人员推出无监督强化学习基准 (URLB)
强化学习也能预训练?效果可提升20倍,华人新作引爆RL新范式!
从计算机视觉到自然语言处理等多个领域,这种「预训练-微调」的模式已经取得了巨大成功。
新智元
2025/06/30
680
强化学习也能预训练?效果可提升20倍,华人新作引爆RL新范式!
【越好奇,越强大】伯克利研究人员使用内在激励,教AI学会好奇
来源:Quanta Magazine 编译:Cecilia 【新智元导读】伯克利研究人员正在开发具有好奇心的AI。他们想创造有内在自我驱动能力的AI,而不是依赖人类指令的伪智能。相比外在的奖惩机制,建立方法让智能体拥有内在的好奇心更加重要。研究人员将让AI感到“吃惊”的指数,即对环境预测的误差,作为内在激励函数。吃惊越大,奖励越多,以此让AI迅速掌握环境。 你可能不记得第一次玩“超级马里奥兄弟”是什么感觉,但试着想像一下:蓝色的天空,棋盘石的地面,还有一个蹲着的红色男人在静静等待。他面向右方,你把他推到那个
新智元
2018/03/21
9200
【越好奇,越强大】伯克利研究人员使用内在激励,教AI学会好奇
加州大学伯克利分校研究人员开源RAD来改进强化学习算法
作者 | Michael Laskin、Kimin Lee、Adam Stooke、Lerrel Pinto、Pieter Abbeel、
代码医生工作室
2020/06/16
9440
加州大学伯克利分校研究人员开源RAD来改进强化学习算法
学界 | 不设目标也能通关「马里奥」的AI算法,全靠好奇心学习
通过与任务匹配的奖励函数最大化来训练智能体策略。对于智能体来说,奖励是外在的,并特定于它们定义的环境。只有奖励函数密集且定义良好时,多数的 RL 才得以成功实现,例如在电子游戏中的「得分」。然而设计一个定义良好的奖励函数非常困难。除了「塑造」外在奖励外,也可以增加密集的内在奖励,即由智能体本身产生奖励。内在奖励包括使用预测误差作为奖励信号的「好奇心」和阻止智能体重新访问相同状态的「访问计数」。其思想是,这些内在奖励通过引导智能体对环境进行有效地探索,以寻找下一个外在奖励,从而缩小与稀疏外在奖励间的差距。
机器之心
2018/09/20
4290
学界 | 不设目标也能通关「马里奥」的AI算法,全靠好奇心学习
系统回顾深度强化学习预训练,在线、离线等研究这一篇就够了
近年来,强化学习 (RL) 在深度学习的带动下发展迅速,从游戏到机器人领域的各种突破,激发了人们对设计复杂、大规模 RL 算法和系统的兴趣。然而,现有 RL 研究普遍让智能体在面对新的任务时只能从零开始学习,难以利用预先获取的先验知识来辅助决策,导致很大的计算开销。
机器之心
2022/12/16
8380
系统回顾深度强化学习预训练,在线、离线等研究这一篇就够了
强化学习如何使用内在动机?
「内在动机」 (Intrinsic Motivation) 这一概念最初是在心理学中提出并发展起来的。由于其在制造开放式学习机器和机器人方面的潜力,这一概念正日益受到认知科学的关注。
机器之心
2020/05/26
8280
强化学习如何使用内在动机?
深度 | 超越DQN和A3C:深度强化学习领域近期新进展概览
我觉得,深度强化学习最让人喜欢的一点是它确实实在难以有效,这一点不同于监督学习。用神经网络来解决一个计算机视觉问题可能能达到 80% 的效果;而如果用神经网络来处理强化学习问题,你可能就只能眼睁睁地看着它失败——而且你每次尝试时遭受的失败都各不相同。
机器之心
2018/12/06
7540
深度 | 超越DQN和A3C:深度强化学习领域近期新进展概览
如何解决稀疏奖励下的强化学习?
强化学习(Reinforcement Learning,RL)是实现强人工智能的方法之一,在智能体(Agent)与环境的交互过程中,通过学习策略(Policy)以最大化回报或实现特定的目标。在实际应用场景中,RL 面临一个重要的问题:agent 无法得到足够多的、有效的奖励(Reward),或者说 agent 得到的是稀疏奖励(Sparse Reward),进而导致 agent 学习缓慢甚至无法进行有效学习。
机器之心
2020/07/09
4.4K0
如何解决稀疏奖励下的强化学习?
只用图像也能思考,强化学习造就推理模型新范式!复杂场景规划能力Max
近年来,LLM 及其多模态扩展(MLLM)在多种任务上的推理能力不断提升。然而, 现有 MLLM 主要依赖文本作为表达和构建推理过程的媒介,即便是在处理视觉信息时也是如此 。
机器之心
2025/05/26
1550
只用图像也能思考,强化学习造就推理模型新范式!复杂场景规划能力Max
打通智能体「自我进化」全流程!复旦推出通用智能体平台AgentGym
LLM-based Agent,已经不再需要人类监督者的帮助,开始实现「自我进化」!
机器之心
2024/06/17
4380
强化学习也有基础模型了!DeepMind重磅发布AdA,堪比人类的新环境适应能力
---- 新智元报道   编辑:LRS 【新智元导读】强化学习也要进入预训练时代了! 基础模型(foundation models)在监督和自监督学习问题上展现出强大的领域适应性(adaption)和可扩展性(scalability),但强化学习领域仍然没有基础模型。 最近DeepMind的Adaptive Agents团队提出了一种人-时间尺度(human-timescale)自适应智能体AdA(Adaptive Agent),证明经过大规模训练后的RL智能体也能具有通用上下文的学习能力,该算法可以
新智元
2023/02/24
5450
强化学习也有基础模型了!DeepMind重磅发布AdA,堪比人类的新环境适应能力
大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界
但Google DeepMind、UC伯克利和MIT的研究人员更进一步,在他们眼里,「大视频模型」也许能够像世界模型一样,真正的做到理解我们身处的这个世界。
新智元
2024/03/05
1750
大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界
DeepSeekMath:突破开放式语言模型中数学推理能力的极限,提出了GRPO,值得关注学习
由于数学推理具有复杂且结构化的特性,这对语言模型构成了重大挑战。在本文中,我们介绍了 DeepSeekMath 7B 模型,该模型在 DeepSeek-Coder-Base-v1.5 7B 模型的基础上,使用从 Common Crawl 获取的 1200 亿个与数学相关的标记,以及自然语言和代码数据继续进行预训练。在不依赖外部工具包和投票技术的情况下,DeepSeekMath 7B 在竞赛级 MATH 基准测试中取得了 51.7% 的优异成绩,接近 Gemini-Ultra 和 GPT-4 的性能水平。通过对 DeepSeekMath 7B 生成的 64 个样本进行自洽性验证,其在 MATH 基准测试上的准确率达到了 60.9%。DeepSeekMath 的数学推理能力归因于两个关键因素:首先,我们通过精心设计的数据选择流程,充分利用了公开可用的网络数据的巨大潜力。其次,我们引入了组相对策略优化(Group Relative Policy Optimization,GRPO)算法,这是近端策略优化(Proximal Policy Optimization,PPO)算法的一个变体,它在增强数学推理能力的同时,还能优化 PPO 的内存使用。
AI浩
2025/06/08
1600
DeepSeekMath:突破开放式语言模型中数学推理能力的极限,提出了GRPO,值得关注学习
UC伯克利等新算法让四足机器人“稳得一批”:跨石滩、过草地…泼了油也不打滑!
人类具有适应环境变化的强大能力:我们可以迅速地学会住着拐杖走路、也可以在捡起位置物品时迅速地调整自己的力量输出,甚至小朋友在不同地面上行走都能轻松自如地切换自己的步态和行走模式。这样的适应能力对于在复杂多变的环境中生存活动十分重要。
大数据文摘
2021/07/29
6580
性能提升、成本降低,这是分布式强化学习算法最新研究进展
深度强化学习(Deep Reinforcement Learning,DRL)是一种公认的解决连续决策问题的有效技术。为了应对 DRL 的数据低效(data inefficiency)问题,受到分布式机器学习技术的启发,分布式深度强化学习 (distributed deep reinforcement learning,DDRL) 已提出并成功应用于计算机视觉和自然语言处理领域。有观点认为,分布式强化学习是深度强化学习走向大规模应用、解决复杂决策空间和长期规划问题的必经之路。
机器之心
2024/02/26
4680
性能提升、成本降低,这是分布式强化学习算法最新研究进展
让机器像人类一样学习? 伯克利 AI 研究院提出新的元强化学习算法!
AI 科技评论按:如果要让机器人拥人的学习能力,应该怎么做?伯克利 AI 研究院给出了一个很好的答案——元强化学习(meta-RL)。但这一次伯克利 AI 研究院不只是使用了元强化学习,还考虑POMDP、异步策略梯度等等知识体系,最终得到了一个高样本效率、高探索效率的新算法「PEARL」。这一成果不仅为解决 AI 的实际问题提供新的思考角度;同时也是实现在现实系统中规模化应用元强化学习的的第一步。伯克利 AI 研究院发布博文介绍了这一成果,AI 科技评论编译如下。
AI科技评论
2019/06/18
4660
让机器像人类一样学习? 伯克利 AI 研究院提出新的元强化学习算法!
1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA
近日,来自清华UIUC等机构的研究者提出了PRIME(Process Reinforcement through IMplicit REwards):通过隐式奖励来进行过程强化。
新智元
2025/02/15
940
1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA
「人造太阳」精准放电!DeepMind实现AI可控核聚变新突破
秘密研发3年,DeepMind去年宣称,首次成功用AI控制「托卡马克」内部等离子体。其重磅成果登上Nature。
新智元
2023/08/07
3960
「人造太阳」精准放电!DeepMind实现AI可控核聚变新突破
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
“ 本文及上一篇综述了最近关于语言模型中幻觉问题的研究进展,主要集中在ChatGPT发布后的研究。文章讨论了如何评估、追踪和消除幻觉,并探讨了现有挑战和未来方向。希望本文能为对LLM幻觉问题感兴趣的朋友提供有价值的资源,促进LLM的实际应用。”
技术人生黄勇
2024/07/19
9080
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
推荐阅读
加州大学伯克利分校研究人员推出无监督强化学习基准 (URLB)
6150
强化学习也能预训练?效果可提升20倍,华人新作引爆RL新范式!
680
【越好奇,越强大】伯克利研究人员使用内在激励,教AI学会好奇
9200
加州大学伯克利分校研究人员开源RAD来改进强化学习算法
9440
学界 | 不设目标也能通关「马里奥」的AI算法,全靠好奇心学习
4290
系统回顾深度强化学习预训练,在线、离线等研究这一篇就够了
8380
强化学习如何使用内在动机?
8280
深度 | 超越DQN和A3C:深度强化学习领域近期新进展概览
7540
如何解决稀疏奖励下的强化学习?
4.4K0
只用图像也能思考,强化学习造就推理模型新范式!复杂场景规划能力Max
1550
打通智能体「自我进化」全流程!复旦推出通用智能体平台AgentGym
4380
强化学习也有基础模型了!DeepMind重磅发布AdA,堪比人类的新环境适应能力
5450
大视频模型是世界模型?DeepMind/UC伯克利华人一作:预测下一帧就能改变世界
1750
DeepSeekMath:突破开放式语言模型中数学推理能力的极限,提出了GRPO,值得关注学习
1600
UC伯克利等新算法让四足机器人“稳得一批”:跨石滩、过草地…泼了油也不打滑!
6580
性能提升、成本降低,这是分布式强化学习算法最新研究进展
4680
让机器像人类一样学习? 伯克利 AI 研究院提出新的元强化学习算法!
4660
1/10训练数据超越GPT-4o!清华等提出隐式过程奖励模型PRIME,在线刷SOTA
940
「人造太阳」精准放电!DeepMind实现AI可控核聚变新突破
3960
大型语言模型的幻觉研究|减轻及避免大模型LLM幻觉(二)
9080
相关推荐
加州大学伯克利分校研究人员推出无监督强化学习基准 (URLB)
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档