试图移动一个拥有1亿多个文档的MongoDB数据库。将其从AWS中的服务器移到GCP中的服务器。试过了mongodump --它成功了,但是mongorestore一直在犯错误-
error running create command: 24: Too many open files
这是如何做到的呢?
不希望通过在AWS服务器上创建脚本进行传输,以获取每个文档并推送到GCP服务器上的API端点,因为这将花费太长的时间。
编辑(添加更多细节)已经尝试将ulimit -n设置为无限。不工作,因为GCP有一个无法修改的硬编码限制。
我读到passenger是一个多进程服务器,这意味着它可以同时处理多个请求。
我在本地机器上以独立模式运行passenger,并编写了代码来检查passenger是否能够同时运行多个请求。我的代码是:
class Test < ApplicationController
def index
sleep 10
end
end
我同时遇到两个http请求,并期望两个请求在10秒后返回输出,但一个请求在10秒后返回输出,另一个请求在20秒后返回输出。因此,它证明它一次只处理一个请求,而不是同时处理。
是否意味着passenger是单进程服务器而不是多进程服务器?或者我错过了什么。