wget更适合批量下载,支持-i参数读取URL列表并提供断点续传、重试等选项;curl需配合shell脚本实现批量下载,灵活性高但配置更复杂。

在 Linux 中批量下载文件,wget 和 curl 是最常用的命令行工具。虽然两者都能完成下载任务,但在批量操作上,wget 更适合简单场景,而 curl 功能更灵活但需要配合脚本使用。
wget 支持从文件中读取 URL 列表,非常适合批量下载。
方法一:用 -i 参数从文件读取 URL
创建一个文本文件,每行一个下载链接:https://example.com/file1.zip https://example.com/file2.zip https://example.com/file3.zip
wget -i urls.txt
常用选项:
wget -c -t 3 -nv -P ./downloads -i urls.txt
方法二:用 shell 循环批量下载
如果 URL 有规律,可以直接用 for 循环:for i in {1..10}; do
wget https://example.com/file$i.zip
donecurl 不像 wget 支持 -i 参数直接读文件,但可以结合 shell 脚本实现。
方法一:用 while 读取文件中的 URL
while read url; do curl -O "$url" done < urls.txt
方法二:配合 seq 或花括号批量请求
适用于编号连续的文件:for i in {1..5}; do
curl -O https://example.com/image$i.jpg
donecurl 小技巧:
for i in {1..3}; do
curl -# -L -o "file$i.zip" "https://example.com/file$i.zip"
done避免被封 IP
大批量下载时,服务器可能限制频繁请求。可以加延迟:for url in $(cat urls.txt); do wget "$url" sleep 1 # 每次下载后暂停 1 秒 done
检查链接有效性
提前测试几个链接是否能访问:head -3 urls.txt | while read url; do curl -I "$url" 2>/dev/null | head -1 done
日志记录
把下载过程记录到日志,方便排查问题:wget -i urls.txt >> download.log 2>&1
基本上就这些。wget 更适合“开箱即用”的批量下载,curl 更适合定制化场景。根据你的需求选择即可。
以上就是Linux 怎么批量下载文件?wget/curl 教程的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号