腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
处理一个非常
大
的
MySQL
数据
库
、
、
、
我有一个包含30个
表
(InnoDB引擎)的
数据
库。其中只有两个
表
,即"transaction“和" shift”相当
大
(第一个
表
有150万行,shift有23k行)。InnoDB (
MySQL
5.5.8)是数十亿行的正确选择吗?在性能开始下降之前,
MySQL
数据
库可以达到多大? 为什么
MySQL
在
大
桌子上速度会慢呢?
Mysql
浏览 0
提问于2016-09-26
得票数 3
3
回答
处理大型
数据
库
表
的策略
、
、
、
我正在考虑构建一个Rails应用程序,它将有一些超过5亿行的非常
大
的
表
。为了保持快捷性,我目前正在研究如何将一个
大
表
拆分成更易于管理的块。我看到从
MySQL
5.1开始有一个分区选项,这是一个可能的选项,但是我不喜欢决定分区的列必须是
表
上主键的一部
分
。我真正想做的是根据写入的值拆分AR模型写入的
表
,但据我所知,没有办法做到这一点--有没有人建议我如何实现这一点或任何
替代
策略?Arfon
浏览 0
提问于2008-11-27
得票数 10
回答已采纳
2
回答
MySQL
数据
库的最大
表
大小
、
、
MySQL
表
的最大大小是多少?50 at时是200万,80 at时是500万? 在较高的大小范围内,我需要考虑压缩
数据
吗?或者如果
表
变得太大,可能会拆分它?
浏览 2
提问于2008-09-07
得票数 30
2
回答
记录大量印象
数据
(5 000万条记录/月)
、
、
、
、
我们目前正在记录使用
MySQL
的几个网站的印象
数据
,并正在寻找一个更合适的
替代
记录流量的高流量,我们的网站现在看到。我们在
MySQL
数据
库中最终需要的是聚合
数据
。所谓“
大
容量”,我的意思是说,我们每个月要为这个印象
数据
记录大约5000万个条目。需要注意的是,这个
表
活动几乎完全是、写,而且很少读取。(与SO:上的这个用例不同)。我们通过按范围划分
数据
并执行批量插入来解决一些
MySQL
性能问题,但从总体
浏览 3
提问于2015-09-09
得票数 1
回答已采纳
2
回答
数据
库分片的
MySQL
代理
替代
方案
、
、
、
、
是否有
MySQL
代理的
替代
方案。我不想使用它,因为它仍然是alpha。我将拥有10台带有table_1 table_2 table_3 table_4的
MySQL
服务器...table_10
分
布在这10台服务器上。每个
表
的结构都是相同的,只是分片有不同的
数据
集。有没有
MySQL
代理的
替代
方案,我可以让我的客户端应用程序连接到单个SQL Server (A代理),它可以查看查询并代表它获取
数据
。例如,如果客户端从代理请求"SE
浏览 3
提问于2009-05-01
得票数 3
回答已采纳
2
回答
大多数只读
数据
库记录的备用源
、
、
、
有一个
MySQL
数据
库
表
包括人员记录和他们填充一次,然后他们将不会改变以后,但将被用于预览和最重要的问题是,他们是1000多个记录,并将显示为分页在各种名称,LName,地址,代码等分页。由于上述描述和
数据
库(
MySQL
)中不必要的功能(即连接、插入、编辑),建议我
替代
来源,我可以在每次更改
数据
后从
数据
库创建它,然后使用它进行预览和搜索。所以: 我需要一个
替代
方案来创建一个源文件从一个
大
的
MySQL
浏览 0
提问于2014-06-05
得票数 0
2
回答
将Abs (绝对
数据
库)导出到
MySQL
的软件
、
、
有没有人
能
推荐一些软件把Abs (绝对
数据
库)导出到
MySQL
?我已经尝试过:;它返回损坏的
数据
( )和ABC琥珀绝对转换器1.03,它无法处理
数据
(900MB)。有没有人
能
提出
替代
方案呢?
数据
库只包含一个
表
(条目),并且其中有一列WIDEMEMO。如上所述,我正在尝试将
数据
导出到
MySQL
。
浏览 1
提问于2010-12-18
得票数 1
2
回答
SQL Server到
MYSQL
的迁移工具
、
、
我想将我的SQL Server
数据
库迁移到
MYSQL
。有没有开源或免费的软件呢?
浏览 1
提问于2009-09-18
得票数 4
4
回答
对于数十亿行来说,InnoDB (
MySQL
5.5.8)是正确的选择吗?
、
因此,我在使用InnoDB存储引擎的
MySQL
中的一个
表
将包含数十亿行(可能没有插入多少行的限制)。 你
能
告诉我我能做些什么来帮助提高速度吗?因为已经有几百万行了,它将开始变慢。我想,在该
表
中,每秒至少有1000-1500次插入。
浏览 0
提问于2011-05-25
得票数 12
1
回答
MySQL
时间戳到日期时间的转换
、
我有一个非常
大
的
MySQL
表
(数百万行),它每隔20
分
钟就会获得一次新
数据
。一开始我犯了一个错误,我有一个时间戳
数据
,而我真正想要的是一个日期时间列。如何才能尽可能快地将当前
表
eidt或迁移到新
表
,同时仍然能够将新
数据
追加到旧表或新
表
?
浏览 0
提问于2012-05-25
得票数 0
回答已采纳
3
回答
如何在Datamapper中使用Point或Geometry类型(codeigniter)
、
、
、
我正在使用codeigniter和datamapper来构建一个API服务(在
mysql
上),其中一部
分
涉及地理位置--但是我似乎找不到一个
替代
方法来使用point
数据
类型。有人
能
帮上忙吗? 干杯马克。
浏览 0
提问于2011-03-11
得票数 1
1
回答
用于记录和导出的MyISAM?
、
、
在我读过O‘’Reilly的"High Performance
MySQL
“一文中,对于日志记录情况,MyISAM可能是InnoDB的一个很好的
替代
方案。因此,我们在一些
表
上有很高的插入率,所以可以使用MyISAM,但也有每3
分
钟导出一次旧
数据
(因此,
表
每3
分
钟被转储和刷新一次,
数据
被传输到另一台服务器)。有没有人有过这样的经历?
浏览 1
提问于2011-01-07
得票数 1
2
回答
如何在
MYSQL
/SQL中获取随机10%的
数据
、
假设我的
表
中有一个50000的
数据
记录。我的目标是从
表
中获得10%的随机
数据
。但是如何获得随机10%的
数据
呢??
浏览 121
提问于2016-02-18
得票数 0
4
回答
导入大型sql文件(>20 sql)
、
、
我正在尝试将一个非常
大
的.sql文件导入我的
数据
库。该文件当前为20 is大小。我尝试使用控制台
mysql
数据
库< backup.sql,但现在花费了超过24小时,
mysql
服务器没有任何反应。我怎么
能
导入这么
大
的文件?我认为拆分是可行的,但如何才能正确拆分呢?它只是一个包含多个insert语句的
表
。
浏览 0
提问于2013-03-02
得票数 8
1
回答
MySQL
5.6.17拖放大
表
锁定服务器几分钟
我们运行
Mysql
5.6.17。 删除一个
大
的InnoDB
表
10 to会导致整个服务器锁定大约40秒。我们的缓冲池大小为55 We。我读到了许多可能是这个问题根源的旧but,但据我所知,它们应该是修复的:(http://bugs.
mysql
.com/bug.php?id=64284)。alter运行良好,当它切换
表
时,整个服务器锁定了10
分
钟,这是非常
大
的
表
。而且,它在我们的奴隶上是可复制的,同样的alter也锁定了整个
浏览 0
提问于2014-05-29
得票数 1
2
回答
当达到
表
大小限制时,
MYSQL
会截断
表
吗?
、
我一直在浏览
MYSQL
文档,试图确定我的脚本或
MYSQL
本身是否导致了
大
表
的截断。我看到的基本行为是: 从浏览器中启动脚本,从MSSQL
表
中选择行,并立即将它们插入本地
MySQL
数据
库
表
中。脚本然后截断本地表,然后通过在chunksFollowing中直接迭代
MySQL
中的
数据
开始导入
数据
,我看到
表
接近200000行,然后突然将
表
截断,计数开始于,我认为我会看到一
浏览 4
提问于2011-05-03
得票数 1
回答已采纳
1
回答
在长
数据
库扫描期间发出定期提交是否会造成性能损失?
、
、
、
、
我有一个任务,扫描一个
大
表
,为每一行做一些计算,并更新一些相关的
表
。有人告诉我,我应该在循环中定期提交,以免在内存中保留大量
数据
。我想知道这样的提交会有性能上的损失,比如重启事务,拍摄
数据
库快照等等。 在这种情况下,使用flush()会更好吗?
浏览 2
提问于2019-08-26
得票数 0
8
回答
在
MySQL
中计算百
分
位数排名
、
、
我在
MySQL
中有一个非常
大
的度量
数据
表
,我需要计算每个值的百
分
位数排名。Oracle似乎有一个名为percent_rank的函数,但我找不到与
MySQL
类似的函数。当然,我可以在Python中暴力破解它,我无论如何都会使用它来填充
表
,但我怀疑这将是非常低效的,因为一个样本可能有200.000个观察值。
浏览 22
提问于2009-06-29
得票数 23
回答已采纳
2
回答
如何用
MySQL
对
数据
库转储的多个insert语句进行批处理?
、
、
、
、
我有一个带有一些
大
表
的
MySQL
数据
库。特别是,目前最大的
表
(到目前为止)有11,000,000行。根据我运行的a查询,
表
的大小大约为1.7GB,但它是MyISAM,显然这个数字是不可靠的(但它毕竟是一个
大
表
)。
数据
库每天使用mysqldump进行备份。目前,从这个转储文件恢复
数据
库需要10小时,而且只会变得更糟。我使用--skip-extended-insert选项,因为对于
表
中的所有行,一个多值
浏览 0
提问于2014-11-16
得票数 4
回答已采纳
1
回答
将
数据
行从teradata
表
加载到
mysql
表
、
在这种情况下,我们需要将
数据
行从teradata
表
加载到
mysql
表
中,对于如何开始使用它有任何提示吗?可以出口(或其他任何实用工具)帮助? (预先谢谢:)
浏览 3
提问于2014-02-27
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
MySQL 分库分表方案
Mysql分库分表详解
Mysql分库分表方案
MySQL 分库分表方案总结
MySQL 分区和分表总结
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券