
公司给了一台 AlmaLinux 9 最小化机器,让我把合作方放在“某度企业网盘”里的 2.mdb(37.6 GB)拖到 /data。
对方只给了“一键下载链接”——那种带签名、带 CDN 重定向、一次性 token 的长 URL,点一下就弹浏览器下载。
问题:
curl -L -o 2.mdb "https://download-cdn.cjjd19.com/……"curl: (18) transfer closed with 39656257192 bytes remaining to readcurl 的 --retry 对“已建立连接但中途被掐”不会自动续传,而是重新下载,于是 0 → 600 MB → 0 → 800 MB → 0 无限循环。
老机器自带 wget 1.21,没加 -c,结果一样:下到 1 GB 被掐,重新从 0 开始。
aria2c -x16 -s16 …确实能跑满带宽,但公司防火墙对 16 并发 IP 做会话限制,反而 403 更频繁;再加上生产环境不想额外装包,需求退回到“单连接 + 断点续传”即可。
回到 wget,其实就缺两个参数:
-c 断点续传(continue from offset);-O 指定输出文件名(避免默认切成 c-m70?v=5&t=… 这种鬼名字)。wget -c -O 2.mdb \
--user-agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36" \
"https://download-cdn.cjjd19.com/123-697/762bb196/1819092776-0/762bb196b71783a542f573bb1ef6cab9/c-m70?v=5&t=1760936374&s=17609363745f933d62ca851fb6301afc3ba933a68c&r=VEN4LU&bzc=1&bzs=1819092776&bzp=0&bi=2323960845&filename=2.mdb&x-mf-biz-cid=1a062af9-b76d-4322-99ac-ed3be84c737e-584000&ndcp=1&cache_type=1"使用方法:
-C -、wget -c),而不是重试。& 被 shell 截断;md5sum/sha256sum 校验,别等入库才发现坏档。把下面脚本保存为 dl-big.sh,chmod +x dl-big.sh 后
./dl-big.sh "你的长URL" filename.ext 即可挂机:
#!/usr/bin/env bash
set -euo pipefail
URL=$1
FILE=$2
wget -c -O "$FILE" --user-agent="Mozilla/5.0" "$URL"
echo "Done. SHA256: $(sha256sum "$FILE")"祝你以后再也不用通宵重下 30 GB 文件。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。