腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
使用
golang
从
MongoDB
批量
获取
记录
、
、
、
如何
使用
golang
从
mongo数据库
批量
获取
记录
?我知道
mongoDB
本身有一个叫做cursor.batchSize()的东西,但我想找一个
使用
golang
驱动程序的例子。根据我所看到的,
golang
库mgo有一个名为Batch的函数,但我正在试图弄清楚如何
使用
它。链接:https://docs.
mongodb
.com/manual/ref
浏览 71
提问于2019-01-10
得票数 2
回答已采纳
2
回答
我想成批地
从
mongodb
检索
记录
、
我试图
从
Mongodb
检索
记录
,
Mongodb
的计数大约是50,000,但是当我执行查询时,Java用完了堆空间,服务器崩溃。以下是我的代码;有没有人可以帮我
从
mongodb
批量
获取
记录
。
浏览 0
提问于2013-03-25
得票数 0
1
回答
NiFi GetMongo永远提取数据
我在
MongoDB
中有几百万条
记录
,我想
使用
NiFi来移动数据。下面是我想要运行的场景:2) NiFi会自动拉取100条
记录
的
批量
记录
。3)一旦完成,它将在添加新条目时
获取
。 我试着用一个小的
MongoDB
集合来应用这个场景(
从
mongo中
获取
并存储为一个文件),我看到NiFi永远在重复这个过程,并且它正在复制
记录
。
浏览 1
提问于2018-10-04
得票数 0
1
回答
限制选择的查询批次大小
、
我
使用
MongoTool runner将数据
从
mongoDB
导入到Hadoop作业。由于数据的大小,我得到了OutOfMemoryError。因此,我想限制以
批量
方式
获取
的
记录
数量。MongoConfigUtil.setQuery() 只能设置查询,但不能设置大小以限制
获取
的
记录
数量。
浏览 5
提问于2015-05-08
得票数 1
回答已采纳
2
回答
从
Server以批处理方式
获取
记录
的最佳方法是什么?
、
、
、
、
场景:我们将从Server
获取
行到C#.Net控制台应用程序,并通过存储过程对
从
Server检索到的数据执行操作;执行操作后,
使用
C#-
MongoDB
驱动程序将新数据存储到
MongoDB
中。Information:到目前为止,应用程序正在
获取
多达3500-5000条
记录
并存储到
MongoDB
中,然后抛出一个错误,如下所示: System.Runtime.InteropServices.SEHException问题:有人能给我一些逻辑建议,以便<em
浏览 3
提问于2013-05-11
得票数 8
回答已采纳
1
回答
如何
使用
Golang
准备
mongodb
查询?
、
我无法处理
Golang
中的对象数组中相同属性具有不同值的情况。在这种
使用
Golang
的场景中,我如何
使用
或运算符动态准备
mongodb
查询?
浏览 2
提问于2021-05-13
得票数 0
6
回答
批量
查找
mongoDB
记录
(
使用
mongoid ruby适配器)
、
、
使用
带有mongoid适配器的Rails3和
mongoDB
,我如何
批量
查找mongo DB?我需要
获取
特定mongo DB集合中的所有
记录
,并在solr (用于搜索的初始数据索引)中对它们进行索引。我正在尝试做的是在mongo中
批量
查找,这样我就可以一次迭代超过1000条
记录
,将它们传递给solr进行索引,然后处理下1000条
记录
,依此类推。我目前
使用
的代码是这样做的: Sunspot.
浏览 2
提问于2011-08-12
得票数 42
回答已采纳
1
回答
如何在
mongoDB
中
使用
like
批量
更新来更新elasticsearch中的数据?
、
、
我找到了用
golang
在elasticsearch中更新数据的解决方案。这些数据是关于1,000,000+++文档的,并且必须与文档的id一起指定。我可以
使用
批量
操作在
mongoDB
中更新,但我在elasticsearch中找不到它,它有一个类似它的操作吗?或者任何人都有想法用特定的id更新elasticsearch中的大量数据。提前谢谢。
浏览 25
提问于2020-04-08
得票数 0
回答已采纳
1
回答
MongoDB
批量
保存等效?
、
我是一个
mongodb
,在
使用
创建与大容量保存等效的(因为我找不到大容量保存操作)时遇到了一些困难。简单地说,给出了一系列文件:我想大容量地插入数组中的文档,
使用
_id属性作为比较字段,以确定哪些传入
记录
等同于
mongodb
中的
记录
。在伪代码中,我希望
mongodb
按以下方式
批量
插入: if(inco
浏览 6
提问于2014-10-02
得票数 3
回答已采纳
1
回答
通过
Golang
将具有整数和双字段的接口数据插入到
MongoDB
,但整数字段存储为双字段
、
通过
Golang
插入具有整数和双字段的接口数据到
MongoDB
,但整数字段存储为双示例代码 "context" "fmt" "time" "go
浏览 1
提问于2021-10-15
得票数 0
回答已采纳
2
回答
如何通过mongo-go-driver
获取
mongodb
版本
、
、
我需要
获取
mongodb
的版本。该项目是
使用
mongo-go-driver用
golang
编写的。
浏览 62
提问于2021-05-11
得票数 1
1
回答
无法
从
bson值
获取
字符串值
、
、
、
我正在尝试
从
bson
获取
字符串和浮点值,或者至少
从
mongo
golang
中的bson
获取
json值。以下是我用
golang
和
mongodb
go驱动程序编写的代码: package main "context" "log" "time""go.
mongodb
.org/mongo-drive
浏览 17
提问于2020-10-20
得票数 0
1
回答
使用
pymongo在
mongodb
中查找并将大量
记录
从一个集合移动到另一个集合
、
、
源集合有1000万条
记录
,我需要从源集合
批量
获取
这些
记录
,并将这些
记录
插入到目标集合中。问题是-在python中,如何
从
源集合中
批量
获取
文档并将这些文档插入到目标集合中?
浏览 4
提问于2021-08-27
得票数 0
1
回答
Mongodb
中是否需要指定跳过限制的排序
、
我正在
使用
mongodb
C#驱动程序的跳过和限制来
批量
获取
票证,如下所示。var data = db.collectionName.Find({}).Skip(1000).Limit(500).ToList() 数据
获取
正在按预期进行。如果未指定,则排序将由
mongodb
处理 var data = db.collectionName.Find({}).Sort("{_id:1}").Skip(1000).Limit(500).ToList() 我已经
从</e
浏览 11
提问于2020-12-16
得票数 1
回答已采纳
1
回答
如何
使用
nodejs在
mongodb
中
批量
更新或升级?
、
、
我需要
使用
mongoDB
批量
更新方法更新集合中的3000+
批量
记录
,但它一次只能插入一条
记录
。 我需要作为
批量
插入。
浏览 0
提问于2018-11-30
得票数 1
2
回答
在nodeJS中缓存流中的数据以执行大容量插入
、
、
、
、
如何在nodeJS中有效地缓冲
从
流到
批量
插入的事件,而不是
从
流接收的每个
记录
的唯一插入。下面是我脑海中的伪代码: // Open
MongoDB
connection // bufferize data intoan array //
浏览 44
提问于2020-11-09
得票数 3
回答已采纳
1
回答
哪一个CouchDB或
MongoDB
适合我的需要?
、
、
、
使用
单独的表不是一种选择。
浏览 3
提问于2010-06-09
得票数 16
回答已采纳
2
回答
Mongo,Python :每10000条
记录
插入一条。
、
我必须重新插入
MongoDB
中的
记录
。我
使用
了一个简单的逻辑,但它没有起作用。请帮我解决这个问题。vtid':l},{'$set': {'processed': 0}},upsert = True,multi = True)该文件包含1000万条
记录
上面的代码插入了一个新列,并为10000条
记录
将其值更新为“0”。但其余的
记录
如何能在一批10000次的执行中。
浏览 4
提问于2017-05-04
得票数 0
回答已采纳
2
回答
填充方法的mgo示例
、
、
我是
GoLang
&
MongoDB
的新手。我正在尝试
使用
mgo来理解它们之间的关系。然而,我找不到一个合适的例子来说明如何
使用
mgo
从
mongo中
获取
被引用的对象。我听说过populate方法,但不知道mgo如何
使用
它。有没有人能对此一目了然?
浏览 2
提问于2018-12-28
得票数 0
2
回答
在c#的Elasticsearch中插入
记录
的时间太长
、
、
、
以下代码
从
两个表table1和table2中提取数据,在字段3上对它们执行连接,并将其索引到Elasticsearch中。需要索引的总行数约为5亿行。该代码在一小时内插入了500万条
记录
,因此采用这种方式需要100个小时才能完成。有没有办法让它更快些?
浏览 1
提问于2015-06-26
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券