腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
3
回答
Wget
-
以
递归
方式
下载
大量
文件
需要
很长
时间
、
、
目前,我正在尝试
下载
一个大型数据集(大图像的200k+),它全部存储在谷歌云上。作者提供了一个
wget
脚本来
下载
它:
wget
-r -N -c -np --user username --ask-password https://alpha.physionet.org/files/mimic-cxr/2.0.0/ 现在它
下载
了等等,但是已经2天了,它还在继续,我不知道要花多长
时间
。AFAIK它正在单独
下载
每个
浏览 32
提问于2019-09-27
得票数 0
2
回答
仅在最近使用
wget
over FTP
下载
修改过的
文件
、
、
当从FTP服务器
递归
获取
wget
时,如何只
下载
在给定日期之后修改的
文件
? 用例是,我
需要
每晚与多个服务器同步,但我只
需要
几天前的数据。--mirror标志就足够了,只不过同步其余的数据(哪怕只有一次)将花费
很长
时间
。
浏览 0
提问于2011-09-23
得票数 4
1
回答
如何从列表和多线程中获得数据?
、
、
我一直使用它从我存储在文本
文件
中的列表中获取
大量
URL:然而,在我看来,一次
下载
一个
文件
,然后转移到下一个
文件
。我可能弄错了,如果是的话,请随时通知我。但是如果我想让它同时
下载
10到20个
文件
呢?用一个简单的
wget
命令就可以做到这一点,还是
需要
更详细的操作? 顺便说一下,这些都是非常小的
文件
(~80 By )正在
下载
。当
下载</
浏览 0
提问于2015-10-24
得票数 2
回答已采纳
2
回答
有没有什么方法可以让我在cURL中获得这种行为?
、
、
、
我的意思是,当浏览器加载一个页面时,它也会
下载
所有相关的内容...有人能告诉我如何使用curl来做这件事吗?我不介意它甚至将二进制数据转储到终端上...我正在尝试对我的服务器进行基准测试(保持它最初的简单性,
以
测试bug……可能在这之后,我会使用像ab)这样的专用工具。
浏览 0
提问于2010-02-04
得票数 1
回答已采纳
1
回答
Wget
命令只为sudo用户
下载
具有读取权限的
文件
--如何将读取权限授予所有用户?
、
、
、
、
我的问题是:$wgetCommandOutput = shell_exec($wgetCommand); 此命令
递归
地将所有
文件
和
文件
夹从网站
下载
到当前工作目录(除非另有规定)。问题是,当
下载
这些
文件
和
文件
夹时,我没有权限在此之后
以
编程
方式
读取它们。但是,如果
浏览 3
提问于2018-10-06
得票数 0
回答已采纳
1
回答
wget
对于大型
下载
的性能,为什么它在开始
下载
之前
需要
这么长的
时间
?
、
、
我将使用
wget
从服务器
下载
相当多的数据(大约50-100 GB,几千个
文件
)。这将是相当关键的
时间
,所以我想问几个关于性能的问题。1)当运行
wget
时,似乎有一个
很长
的初始阶段,其中没有发生
下载
,然后突然启动。这个阶段似乎比实际的
下载
时间
要长得多。在
wget
过程开始的时候会发生什么,有没有一种方法可以加速它?在这个阶段,没有网络活动,
wget
在top上似乎也不是很活跃。这可能与
wget</
浏览 11
提问于2017-02-26
得票数 2
回答已采纳
3
回答
安装dropbox (用于浏览
文件
)
、
、
、
、
我只想简单地探索一个dropbox
文件
系统,而不
需要
在CPU、内存和存储(即,在本地保存远程
文件
的副本)上增加很多额外的负载。官方客户端似乎消耗了
大量
的reosurces (并且会执行不必要的操作,比如同步) -- http://www.lowendtalk.com/discussion/3179/dropbox-memory-usage-on-linux(我想为public.me.com做些类似的事情:
wget
-r-like或FUSE)。Dropbox
浏览 0
提问于2012-12-02
得票数 12
2
回答
无法从FTP
下载
文件
目前,我正在使用shell脚本从FTP服务器
下载
文件
。Ansible将执行我的脚本并继续执行其他自动化作业。下面的语法只用于
下载
单个
文件
,但我的要求是
下载
多个
文件
和目录。 感谢你的帮助。
浏览 12
提问于2016-03-26
得票数 3
回答已采纳
1
回答
wget
不会
下载
实际的
文件
、
、
我已经看了
很长
一段
时间
了,还没有想出如何解决这个问题。
wget
--no-check-certificate -nc -nH -r -k -p -np --cut-dirs=3 \https://websitename/directory/folder_of_interest/
浏览 6
提问于2012-11-09
得票数 2
2
回答
如何从URL将数据导入到S3
我有一个S3桶和一个大
文件
的URL。我想将内容存储在S3桶中的URL中。 我可以将
文件
下载
到本地机器,然后用Cloudberry或Jungledisk等
方式
将其上传到S3。但是,如果
文件
很大,这可能
需要
很长
时间
,因为
文件
必须传输两次,而且我的网络连接比Amazon的要慢得多。如果我有
大量
数据要存储在S3中,我可以启动一个EC2实例,使用curl或
wget
检索
文件
到实例,然后将数据从
浏览 0
提问于2010-08-01
得票数 16
1
回答
有没有更快的方法
下载
gcc-cilkplus?
、
、
我的问题是,我仍然在尝试
下载
g++的扩展并在我的机器上编译它,但是这件事
需要
很长
时间
。正如在中所解释的,我试图让编译器源代码来编译它们。我实际上是在争取GCC 4.9的发行版。所以我决定直接用
wget
进行
递归
下载
。
wget
-r -l 0 -np --erobots=off http://gcc.gnu.org/svn/gcc/branches
浏览 3
提问于2013-10-03
得票数 0
回答已采纳
1
回答
有很多页的
wget
、
根据链接到的
文件
是否也被
下载
,
wget
中的
wget
选项将链接转换为本地链接或远程链接。(更多细节请参见 ) 是否可以
以
这种
方式
使用
wget
:我
下载
两个网页,比如www.example.com/1和www.example.com/2,其中第一个页面有到第二个页面的链接,而
wget
将链接转换为本地链接,因为第二个页面也被
下载
了。注意到:我不能使用深度为1的
递归
选项
下载</em
浏览 6
提问于2012-11-17
得票数 1
回答已采纳
3
回答
比较
文件
大小并通过
wget
下载
它们是否不同
我正在通过.mp3
下载
一些
wget
文件
(都是合法的):有时我不得不停止
下载
,而在那个时候
文件
被部分
下载
。例如,一个10分钟的record.mp3
文件
变成4分钟的record.mp3
文件
。这是正确的发挥,但不完整的。如果使用上述相同的命令,因为本地计算机中已经存在record.mp3
文件
,所以
wget
将跳过该
文件
,尽管它
浏览 17
提问于2015-06-25
得票数 4
回答已采纳
1
回答
试图使用curl
下载
一系列
文件
、
我试图使用curl
下载
以下格式的
大量
文件
:。。所以我使用了这个命令:我知道
wget
可以做到,但是
wget
似乎
需要
5倍的
时间
才能运行。我在
wget
中使用的命
浏览 1
提问于2009-07-22
得票数 1
回答已采纳
1
回答
如何使用
wget
抓取网站直到保存了300个html页面
我想用Ubuntu中的
wget
递归
地抓取一个网站,并在
下载
了300页之后停止它。我只保存页面的html
文件
。目前,我使用的命令是:我希望代码
以
某种
方式
计数本地-DIR中的html
文件
,如果计数器显示300,停止爬行。有这样的事吗?
浏览 0
提问于2020-03-14
得票数 1
回答已采纳
2
回答
不带扩展名的
wget
递归
文件
、
、
我正试着用
wget
建立一个网站。我希望进行
递归
下载
,并将其存储在一个
文件
夹中,但避免使用查询
文件
;Home?query --在本例中是Home。为此,我尝试了一种模式的--reject,但我无法使它工作。*' \--no-check-certificate \如果我
以
这种
方式
运行它,我就会得到这个站点注意
浏览 0
提问于2013-05-21
得票数 2
回答已采纳
1
回答
你能用httpclient
递归
下载
一个路径吗?
、
我想知道--是否可以通过httpclient或类似的Java库
以
递归
方式
下载
路径(就像使用
wget
-r ...一样)?我是否
需要
从头开始实现,或者是否有现成的库/爬虫可供我使用? 你有什么推荐的?
浏览 1
提问于2016-01-30
得票数 1
2
回答
同时运行多个
Wget
命令
、
、
、
、
我有一个文本
文件
,它在每一行上都有一个url和所需的
文件
名(由空格分隔)。我正在循环浏览这个文本
文件
,
下载
url并使用
wget
将其保存为所需的名称: do
wget
$a -O $b问题是我的列表中包含了将近9000份
文件
,所以一个一个地
下载
它们
需要
很长
时间
。不管怎样,我可以同时
下载<
浏览 2
提问于2021-09-17
得票数 0
回答已采纳
2
回答
将
大量
图片
下载
到我的服务器并在
下载
完成时通知用户
、
、
、
我想要将
大量
文件
下载
到我的服务器。我有一个要
下载
的不同
文件
的列表以及放置它们的位置。这一切都不是问题,我使用
wget
下载
文件
,使用shell_exec执行shell_exec($command); 这工作得很好,服务器启动所有
浏览 0
提问于2010-03-09
得票数 0
回答已采纳
2
回答
wget
:
下载
目录/子目录中的所有
文件
、
、
子目录包含许多
文件
,我想从每个子目录中
下载
一个
文件
到我的linux机器上的一个位置,每个子目录中包含特定的序列字母'RMD‘。webpage/dir1/dir1a/file321RMD210... webpage/dir2/dir2a/file416RM
浏览 1
提问于2015-09-15
得票数 0
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券