我刚刚发现我的盒子里只剩下5%的硬盘空间,我还有差不多250 to的mysql文件要发送给s3。我们已经从mysql迁移到了NoSQL,并且目前没有使用mysql。但是,我希望在迁移之前保留旧数据。
问题是,在将文件发送到那里之前,我不能只在循环中对它们进行tar。
for i in * ; do cat i | gzip -9c | s3cmd put - s3://mybudcket/mybackups/$i.gz; done
有没有实现这一点的方法?
操作系统为ubuntu 12.04,s3cmd版本为1.0.0
谢谢你的建议。
我当前正在构建的应用程序接口将文件从一个端点保存到我的EC2实例。我想将文件直接保存到S3,但在将数据块流式传输到S3时遇到了问题。这是原始代码:
def _get_file(self, id, values, current, count):
msg = 'Downloading ID: {} de {}'.format(id, current, count)
log.info(msg)
for i in range(TRY_COUNT):
try:
r = se
我有一个url:
myhost.com/largejsondata
在python flask-restful中,我想提供同样大的。我如何流式传输它?我知道在flask-restful的get函数中,我可以这样做:
class LargeJSON(Resource):
def get(self, todo_id):
#openup a URL that contains a large jsonfile
#stream output as it appears from previous line to the end-users browser