推荐使用 Hugging Face CLI 工具下载模型,需先安装 huggingface_hub、配置 HF_ENDPOINT 镜像源,再执行 huggingface-cli download 命令并指定本地目录与断点续传参数。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望在本地使用 Hugging Face 上的预训练模型,但遇到下载缓慢、中断或无法获取完整文件等问题,则可能是由于网络连接不稳定、未配置镜像源或工具选择不当所致。以下是多种切实可行的模型文件下载方法:
该方法是官方推荐的命令行方式,支持断点续传、指定目录、跳过已存在文件等功能,适用于大多数用户且兼容性高。
1、在终端中执行命令安装 huggingface_hub 工具:
pip install huggingface_hub
2、设置国内镜像加速(关键提速步骤):
Linux/macOS 用户在 ~/.bashrc 中添加:export HF_ENDPOINT=https://hf-mirror.com
Windows PowerShell 用户执行:$env:HF_ENDPOINT="https://hf-mirror.com"
3、执行模型下载命令,例如下载 Qwen2-7B-Instruct:
huggingface-cli download --resume-download --local-dir-use-symlinks False Qwen/Qwen2-7B-Instruct --local-dir ./models/qwen2-7b
4、如需下载私有模型,先执行 huggingface-cli login 并粘贴具有 Read 权限的 Access Token。
该方法适合集成到脚本中,可精确控制下载行为,支持强制重下、忽略特定文件、限制下载大小等高级选项。
1、确保已安装 transformers 和 huggingface_hub:
pip install transformers huggingface_hub
2、运行以下 Python 脚本:
from huggingface_hub import snapshot_download
snapshot_download(repo_id="bert-base-chinese", local_dir="./models/bert_chinese", force_download=True)
3、如需仅下载部分文件,可传入 allow_patterns 参数,例如只下载 pytorch_model.bin 和 config.json:
allow_patterns=["pytorch_model.bin", "config.json"]
4、若模型含 safetensors 格式且想优先获取,可在 allow_patterns 中显式指定:
allow_patterns=["*.safetensors", "config.json"]
此方式保留完整 Git 历史与元数据,适合需要复现训练过程或验证文件完整性的开发者,但默认会拉取全部框架版本文件。
1、安装 Git 和 Git LFS:
macOS 执行 brew install git-lfs;Windows 用户从 git-lfs.github.com 下载安装器
2、初始化 LFS 并克隆仓库:
git lfs install
git clone https://huggingface.co/decapoda-research/llama-7b-hf
3、进入克隆目录后,确认 .gitattributes 文件中已声明大文件跟踪规则,否则需手动执行:
git lfs track "*.bin"
git add .gitattributes
4、注意:该方式会下载所有 siblings 文件(如 tf_model.h5、flax_model.msgpack),如只需 PyTorch 版本,请改用其他方法
适用于不熟悉命令行、临时急需单个模型或需精细选择文件格式的用户,配合第三方下载工具可显著提升速度与稳定性。
1、访问目标模型页面,例如 https://huggingface.co/baichuan-inc/Baichuan2-7B-Chat
2、点击 Files and versions 标签页,逐个复制所需文件的 URL(如 model.safetensors、tokenizer.json、config.json)
3、将全部 URL 粘贴至迅雷新建任务窗口,启用多线程与断点续传
4、关键提示:务必按原始仓库层级结构创建本地文件夹,例如 tokenizer.json 应置于根目录,而 pytorch_model.bin 若位于 models/ 子目录下,则需同步建立该路径
这些开源工具专为 Hugging Face 设计,内置多线程、自动重试、镜像切换与进度可视化功能,尤其适合大模型或弱网环境。
1、从 Gitee 搜索并克隆 HuggingFace-Download-Accelerator 最新版本:
git clone https://gitee.com/xxx/HuggingFace-Download-Accelerator
2、进入项目目录后安装依赖:
pip install -r requirements.txt
3、执行下载命令,例如下载 Mixtral-8x7B 的 GGUF 量化版:
python hf_download.py --model HenryJJ/Mixtral-8x7B-Instruct-v0.1-GGUF --save_dir ./models/mixtral-gguf
4、该工具默认启用 hf-mirror 镜像,无需额外配置环境变量,且支持 --max-workers 参数调节并发数
以上就是Hugging Face怎么下载模型 抱抱脸Hugging Face模型文件下载方法【指南】的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号