Hugging Face怎么下载模型 抱抱脸Hugging Face模型文件下载方法【指南】

畫卷琴夢
发布: 2025-12-17 23:41:02
原创
805人浏览过
推荐使用 Hugging Face CLI 工具下载模型,需先安装 huggingface_hub、配置 HF_ENDPOINT 镜像源,再执行 huggingface-cli download 命令并指定本地目录与断点续传参数。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

hugging face怎么下载模型 抱抱脸hugging face模型文件下载方法【指南】

如果您希望在本地使用 Hugging Face 上的预训练模型,但遇到下载缓慢、中断或无法获取完整文件等问题,则可能是由于网络连接不稳定、未配置镜像源或工具选择不当所致。以下是多种切实可行的模型文件下载方法:

一、使用 Hugging Face CLI 工具下载

该方法是官方推荐的命令行方式,支持断点续传、指定目录、跳过已存在文件等功能,适用于大多数用户且兼容性高。

1、在终端中执行命令安装 huggingface_hub 工具:
pip install huggingface_hub

2、设置国内镜像加速(关键提速步骤):
Linux/macOS 用户在 ~/.bashrc 中添加:export HF_ENDPOINT=https://hf-mirror.com
Windows PowerShell 用户执行:$env:HF_ENDPOINT="https://hf-mirror.com"

3、执行模型下载命令,例如下载 Qwen2-7B-Instruct:
huggingface-cli download --resume-download --local-dir-use-symlinks False Qwen/Qwen2-7B-Instruct --local-dir ./models/qwen2-7b

4、如需下载私有模型,先执行 huggingface-cli login 并粘贴具有 Read 权限的 Access Token。

二、通过 Python 代码调用 snapshot_download

该方法适合集成到脚本中,可精确控制下载行为,支持强制重下、忽略特定文件、限制下载大小等高级选项。

1、确保已安装 transformers 和 huggingface_hub:
pip install transformers huggingface_hub

2、运行以下 Python 脚本:
from huggingface_hub import snapshot_download
snapshot_download(repo_id="bert-base-chinese", local_dir="./models/bert_chinese", force_download=True)

3、如需仅下载部分文件,可传入 allow_patterns 参数,例如只下载 pytorch_model.bin 和 config.json:
allow_patterns=["pytorch_model.bin", "config.json"]

4、若模型含 safetensors 格式且想优先获取,可在 allow_patterns 中显式指定:
allow_patterns=["*.safetensors", "config.json"]

三、使用 Git LFS 克隆仓库

此方式保留完整 Git 历史与元数据,适合需要复现训练过程或验证文件完整性的开发者,但默认会拉取全部框架版本文件。

1、安装 Git 和 Git LFS:
macOS 执行 brew install git-lfs;Windows 用户从 git-lfs.github.com 下载安装器

2、初始化 LFS 并克隆仓库:
git lfs install
git clone https://huggingface.co/decapoda-research/llama-7b-hf

HIX Translate
HIX Translate

由 ChatGPT 提供支持的智能AI翻译器

HIX Translate 114
查看详情 HIX Translate

3、进入克隆目录后,确认 .gitattributes 文件中已声明大文件跟踪规则,否则需手动执行:
git lfs track "*.bin"
git add .gitattributes

4、注意:该方式会下载所有 siblings 文件(如 tf_model.h5、flax_model.msgpack),如只需 PyTorch 版本,请改用其他方法

四、网页手动下载 + 迅雷批量抓取

适用于不熟悉命令行、临时急需单个模型或需精细选择文件格式的用户,配合第三方下载工具可显著提升速度与稳定性。

1、访问目标模型页面,例如 https://huggingface.co/baichuan-inc/Baichuan2-7B-Chat

2、点击 Files and versions 标签页,逐个复制所需文件的 URL(如 model.safetensors、tokenizer.json、config.json)

3、将全部 URL 粘贴至迅雷新建任务窗口,启用多线程与断点续传

4、关键提示:务必按原始仓库层级结构创建本地文件夹,例如 tokenizer.json 应置于根目录,而 pytorch_model.bin 若位于 models/ 子目录下,则需同步建立该路径

五、使用专用加速下载器 HFD 或 HuggingFace-Download-Accelerator

这些开源工具专为 Hugging Face 设计,内置多线程、自动重试、镜像切换与进度可视化功能,尤其适合大模型或弱网环境。

1、从 Gitee 搜索并克隆 HuggingFace-Download-Accelerator 最新版本:
git clone https://gitee.com/xxx/HuggingFace-Download-Accelerator

2、进入项目目录后安装依赖:
pip install -r requirements.txt

3、执行下载命令,例如下载 Mixtral-8x7B 的 GGUF 量化版:
python hf_download.py --model HenryJJ/Mixtral-8x7B-Instruct-v0.1-GGUF --save_dir ./models/mixtral-gguf

4、该工具默认启用 hf-mirror 镜像,无需额外配置环境变量,且支持 --max-workers 参数调节并发数

以上就是Hugging Face怎么下载模型 抱抱脸Hugging Face模型文件下载方法【指南】的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号