腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如何在MarkLogic服务器中使用REST API搜索文档和更新元
数据
?
response><q:extract><TITLE></TITLE></q:extract></q:response>如果不能使用QBE,我还能用什么条件搜索文档并更新其中的集合元
数据
浏览 1
提问于2015-06-29
得票数 0
3
回答
在服务之间编写和传输事件(AWS)
、
、
、
我们有一个php服务,需要非常快地记录
数据
(每秒处理1000个客户端)。其中每一个都向日志中
写入
一条记录。因此每秒1000次
写入
),然后将记录的
数据
近乎实时地发送到另一个服务。我们使用的是AWS。您将如何将
数据
传输到另一项亚马逊服务?我们是否应该使用
数据
库(同步
写入
会阻塞php请求,不是吗?)我们应该使用像amazon SQS这样的解决方案,还是使用其他任何amazon解决方案?此外,我们还使用redshift来查询
数据
。谢谢 因此,根据人们的建议,我
浏览 1
提问于2015-05-08
得票数 0
1
回答
Cloud Firestore -并行单个
写入
与并行
批量
写入
、
、
有没有人比较过并行单个
写入
和并行
批量
写入
与Firestore之间的性能? 我每天都在尝试使用
数据
流导入作业将
数据
写入
Firestore,并且能够在10分钟内
写入
大约250万条记录。目前,
写入
是以批处理模式完成的,批处理大小为400。 只是好奇单个
写入
是否可以提供比
批量
写入
更高的性能?
浏览 19
提问于2021-04-16
得票数 0
2
回答
如何每天有效地写500 K文件?
、
、
写入
/更新修复-> ~1分3秒Test D:将输出处理为5000个文档。
写入
/更新修复-> ~3分12秒问题:如何每天有效地编写/更新500 K文档?
浏览 2
提问于2020-04-20
得票数 0
回答已采纳
1
回答
用于批处理插入/更新事务的knex查询优化
、
、
对于mysql查询,我是新手,下面有三个需要很长时间才能解决的查询。是否有更好的方法来执行以下操作 let queries = existingProductsArr.map((tuple) => { delete tuple.id; return trx('product') .where({ id })
浏览 12
提问于2022-07-01
得票数 1
1
回答
Orion-QL订阅配置
、
、
我想对这些设备进行
批量
读取,并将这些
数据
批量
写入
CrateDB。每1秒从传感器获取100个
数据
。 例如,如何使用量子跃迁代理将5秒的批处理
数据
(500个
数据
)与一起
写入
CrateDB?
浏览 1
提问于2021-07-26
得票数 1
2
回答
在
node.js
中使用MySQL的LOAD DATA INFILE?
、
、
、
是否有支持加载
数据
文件()的
node.js
MySQL驱动程序?我有一些非常依赖于
批量
插入的实用程序,但是找不到任何明确提到支持它的
node.js
驱动程序。
浏览 1
提问于2011-04-20
得票数 4
1
回答
如何使用云Firestore将FirebaseUser配置文件更新添加到
批量
写入
?
、
、
、
我正在尝试使用Cloud Firestore执行
批量
写入
。当执行
批量
写入
时,它将使用指向用户选择的新配置文件图像的链接更新
数据
库中的用户文档。有没有什么方法可以将FirebaseUser更新添加到批处理
写入
中,以便两个更新同时发生?
浏览 13
提问于2020-09-16
得票数 0
回答已采纳
1
回答
Apacheflink的DataStream应用程序接口如何支持事件批处理
、
我的生产者是apache Kafka,我们想要监听一批事件来处理它们,并将处理后的事件
写入
数据
库。如果我使用流/批处理,每个事件都会命中一个对DB的查询。我不想把每个事件都作为一个查询来处理。如何
批量
处理一些事件并将这些
批量
数据
写入
DB? 注意:我们使用的是DataStream接口
浏览 44
提问于2021-04-28
得票数 0
2
回答
如何使用Spring-Batch进行大容量插入?
、
、
、
、
我使用spring-batch和spring- data -jpa来读取大型csv
数据
文件,并使用hibernate将现有条目持久化(或更新)到postgresql
数据
库中。如何配置spring才能使用
批量
/
批量
插入?
浏览 2
提问于2014-12-11
得票数 1
1
回答
当事件数等于或超过batchSize时,为什么Flume-NG HDFS接收器不
写入
文件?
、
、
、
imp-agent.channels = imp-ch1imp-agent.sinks = hdfs-imp-sink1 我看到的是,所有的
数据
似乎都保存在内存中
浏览 0
提问于2013-05-15
得票数 4
回答已采纳
1
回答
如何在没有百万插入的情况下用数百万份虚拟文档填充集合?
、
、
我希望用用户帐户来填充一个集合,里面充满了虚拟
数据
ofc。现在,我不认为调用1 mil插入将是明智的,所以我需要如何做它的
数据
库端。我还记得一些关于在
数据
库中执行javascript的事情,也许这就是方法,但更具体地说呢?
浏览 2
提问于2013-09-05
得票数 0
回答已采纳
2
回答
Kafka流只处理一次用例
、
我有一个用例,我需要从主题中读取
数据
,然后
批量
数据
(100条记录),并将
批量
数据
写入
特定的文件或外部存储。为此,我计划使用处理器API,并使用kafka支持的状态存储对正在处理的
数据
进行批处理,一旦批处理大小达到100条记录,就将其
写入
文件。从状态存储中清除批以创建新的新批。另一个要求是我们不能在
数据
中有重复的
数据
。这意味着相同的记录不能在两个不同的批次中。 streams只有一次适合这个用例吗?我在设计中读到,如果
浏览 10
提问于2019-01-10
得票数 0
1
回答
HTTP POST弹性搜索事件流
批量
、
、
、
、
我有一个使用streams读取文件的
node.js
程序( ) writeFunction(data);上面的代码异步地工作并
写入
数据
,除了需要很长的时间之外,.It看起来也像一个缓冲区,因为
写入
花费的时间比读取要长得多。(使用管道的优势)我知道在elastic search中有一个
批量
接
浏览 4
提问于2014-12-04
得票数 0
2
回答
使用
Node.JS
I/O
写入
日志
数据
时出现问题
我正在将
Node.JS
与一个库进行接口,该库提供对
数据
的迭代器样式访问:实际上,我想写下以下内容:看起来我并不完全理解node中的I/O,因为一个简单的无限循环向控制台
写入
一个字符串也表现出同样的行为。
浏览 0
提问于2011-05-16
得票数 1
回答已采纳
5
回答
哪种SQL Server 2008解决方案能很好地处理海量
写入
,从而不会减慢
数据
库用户的读取速度?
、
、
我们有大型SQL Server 2008
数据
库。通常,我们必须将大量
数据
导入到
数据
库中,这需要几个小时。在这段时间里,其他所有人的读写速度都慢了很多。我正在寻找一个解决方案,也许我们可以设置一个
数据
库服务器,用于
批量
写入
,然后设置两个其他
数据
库服务器,设置为可读,并可能对它们进行少量
写入
。目标是在
批量
更改运行时保持快速的小读写。
浏览 1
提问于2009-04-13
得票数 1
2
回答
Flink时间缓冲接收器
、
我正在尝试编写一个Flink应用程序,它从Kafka中读取事件,从MySQL中丰富这些事件,并将这些
数据
写入
HBase。我正在RichFlatMapFunction中进行MySQL丰富,现在我正在尝试找出如何最好地
写入
HBase。我想
批量
写入
HBase,所以我目前正在考虑使用WindowAll,然后使用identity apply (只是为了返回DataStream),然后编写一个HBaseSink,它获取一个记录列表并对HBase执行
批量
Puts。
浏览 0
提问于2019-09-27
得票数 0
3
回答
Elasticsearch如何检查
批量
索引请求的状态?
、
、
我基于
数据
集
批量
索引到包含国家形状()的Elasticsearch文档。地理形状在"geometry":{"type":"MultiPolygon"中有很多点,
批量
请求需要很长时间才能完成(有时不完成,这是一个单独的问题,已经报告过了)。由于客户端超时(我使用官方的ES
node.js
),我希望有一种方法来检查
批量
请求的状态,而不必使用大量的超时值。
浏览 25
提问于2017-08-01
得票数 1
回答已采纳
2
回答
在完全恢复模式下,何时将缓冲区/事务日志更改应用于
数据
库
数据
页?
、
、
、
、
在进行更改时,将
数据
页从
数据
库
数据
文件中提取到缓冲区中,并对缓冲区页进行更改,并将更改
写入
事务日志。先写日志记录。在简单恢复模式下,缓冲区中的更改将应用于检查点处的
数据
库
数据
页。类似地,对于尚未进行完整备份的完整/
批量
恢复模型。 问题:一旦进行了第一次完全备份,对
数据
页的更改将如何以及何时
写入
完整/
批量
恢复模型中的
数据
库
数据
文件?
浏览 0
提问于2018-10-15
得票数 0
回答已采纳
1
回答
Cloud Firestore 10000次
写入
/秒限制
、
这个问题可能很愚蠢:)一次提交将被视为一次
写入
还是500次
写入
?
浏览 1
提问于2021-04-16
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
ClickHouse是如何批量写入的?
第八篇|Spark SQL百万级数据批量读写入MySQL
python 数据读取 写入总结
Python写入数据到MySQL
Python爬虫数据写入mySQL案例
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
即时通信 IM
活动推荐
运营活动
广告
关闭
领券