0

0

HuggingFace怎么下载模型_HuggingFace模型下载与加载教程

看不見的法師

看不見的法師

发布时间:2026-02-16 17:19:03

|

884人浏览过

|

来源于php中文网

原创

本地下载hugging face模型有五种方式:一、cli工具下载,支持私有模型与自定义路径;二、python调用hf_hub_download,支持镜像加速与单文件控制;三、from_pretrained+save_pretrained组合,适合临时联网后持久化;四、网页端手动下载,适用于无命令行权限场景;五、snapshot_download批量获取完整仓库快照,确保版本固化与结构一致。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

huggingface怎么下载模型_huggingface模型下载与加载教程

如果您希望在本地使用 Hugging Face 上的预训练模型,但网络环境受限或需离线部署,则需将模型文件完整下载至本地磁盘。以下是多种可靠、可验证的模型下载方式:

一、使用 Hugging Face CLI 工具下载

该方法适用于命令行操作熟练的用户,支持私有模型认证与自定义缓存路径,是官方推荐的标准化下载流程。

1、在终端中执行以下命令安装 CLI 工具:
pip install huggingface_hub

2、如需下载私有模型或绕过速率限制,需先登录账户:
huggingface-cli login

3、在 Hugging Face 网站个人 Settings → Access Tokens 页面生成 Read 权限 Token,并在终端提示中粘贴该 Token。

4、执行模型下载命令,例如下载中文 text2vec 模型:
huggingface-cli download shibing624/text2vec-base-chinese

5、若需指定保存位置,添加 --cache-dir ./my_models 参数,模型将解压至该目录而非默认缓存路径。

二、通过 Python 脚本调用 hf_hub_download 下载

此方式适合嵌入自动化脚本或云服务器批量下载场景,支持镜像加速与细粒度文件控制,不依赖全局缓存机制。

1、确保已安装最新版 huggingface_hub:
pip install -U huggingface_hub

2、设置国内镜像源以提升下载稳定性(可选):
import os
os.environ["HF_ENDPOINT"] = "https://hf-mirror.com"

3、导入并调用下载函数:
from huggingface_hub import hf_hub_download

4、指定模型 ID 与目标文件名,例如下载 config.json:
hf_hub_download(repo_id="bert-base-uncased", filename="config.json", local_dir="./bert_local")

5、如需下载全部文件,可配合 repo_files 列表循环调用,或直接使用 snapshot_download 函数替代单文件下载。

三、使用 transformers 库的 from_pretrained + save_pretrained 组合下载

该方法本质为“在线加载后本地持久化”,适用于已能临时访问 Hugging Face 且需保留完整模型结构与分词器配套文件的场景。

1、安装必要依赖:
pip install transformers torch

2、运行 Python 脚本加载远程模型:
from transformers import AutoModel, AutoTokenizer

智能网站管理系统(SmartSite)2.9.1
智能网站管理系统(SmartSite)2.9.1

智能网站管理系统( SmartSite )是由仙人掌软件基于asp+access环境下开发的企业级网站管理系统。SmartSite 内置单页、新闻、产品、视频、下载四大内容模型,在很大程度上满足了更多层次用户的需求和发展需要。会员、在线招聘等功能,加强网站的互动性的同时也可为网站的发展带来一定的盈利模式。SmartSite 开发了全新的、高效的、灵活性更强的模板引擎。无限循环(循环嵌套)标签、自定

下载

3、实例化模型与分词器:
model = AutoModel.from_pretrained("google-bert/bert-base-chinese")
tokenizer = AutoTokenizer.from_pretrained("google-bert/bert-base-chinese")

4、执行本地保存操作:
model.save_pretrained("./bert_base_chinese_model")
tokenizer.save_pretrained("./bert_base_chinese_model")

5、保存完成后,目标目录将包含 pytorch_model.bin、config.json、tokenizer.json、vocab.txt 等核心文件,可完全离线加载。

四、直接从 Hugging Face 网页端手动下载

适用于无命令行权限、网络策略严格或仅需少量关键文件(如 tokenizer 或配置)的轻量级使用场景,无需任何工具链依赖。

1、访问模型页面,例如 https://huggingface.co/bert-base-uncased

2、滚动至 “Files and versions” 区域,查看所有可下载文件列表。

3、逐个点击所需文件(如 pytorch_model.bin、config.json、tokenizer.json)右侧的下载图标。

4、将全部文件统一保存至同一空文件夹内,确保文件名与原始命名一致,不得重命名或修改扩展名。

5、若模型含特殊文件(如 tf_model.h5、flax_model.msgpack),须按实际框架需求同步下载,否则本地加载将报错。

五、使用 snapshot_download 批量下载整库快照

该函数专为完整镜像设计,可一次性获取模型仓库当前 commit 的全部内容(含 .gitattributes、README.md、.safetensors 等),适用于合规归档或 CI/CD 流水线固化版本。

1、导入下载模块:
from huggingface_hub import snapshot_download

2、执行快照拉取:
snapshot_download(repo_id="meta-llama/Llama-2-7b-chat-hf", revision="main")

3、指定本地存储路径:
snapshot_download(repo_id="microsoft/phi-2", local_dir="./phi2_offline", local_dir_use_symlinks=False)

4、禁用符号链接(local_dir_use_symlinks=False)可确保文件实体完整复制,避免跨环境路径失效问题。

5、下载完成后的目录结构与线上仓库严格一致,可直接作为 from_pretrained 的合法路径输入。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法
pixiv网页版官网登录与阅读指南_pixiv官网直达入口与在线访问方法

本专题系统整理pixiv网页版官网入口及登录访问方式,涵盖官网登录页面直达路径、在线阅读入口及快速进入方法说明,帮助用户高效找到pixiv官方网站,实现便捷、安全的网页端浏览与账号登录体验。

286

2026.02.13

微博网页版主页入口与登录指南_官方网页端快速访问方法
微博网页版主页入口与登录指南_官方网页端快速访问方法

本专题系统整理微博网页版官方入口及网页端登录方式,涵盖首页直达地址、账号登录流程与常见访问问题说明,帮助用户快速找到微博官网主页,实现便捷、安全的网页端登录与内容浏览体验。

126

2026.02.13

Flutter跨平台开发与状态管理实战
Flutter跨平台开发与状态管理实战

本专题围绕Flutter框架展开,系统讲解跨平台UI构建原理与状态管理方案。内容涵盖Widget生命周期、路由管理、Provider与Bloc状态管理模式、网络请求封装及性能优化技巧。通过实战项目演示,帮助开发者构建流畅、可维护的跨平台移动应用。

42

2026.02.13

TypeScript工程化开发与Vite构建优化实践
TypeScript工程化开发与Vite构建优化实践

本专题面向前端开发者,深入讲解 TypeScript 类型系统与大型项目结构设计方法,并结合 Vite 构建工具优化前端工程化流程。内容包括模块化设计、类型声明管理、代码分割、热更新原理以及构建性能调优。通过完整项目示例,帮助开发者提升代码可维护性与开发效率。

19

2026.02.13

Redis高可用架构与分布式缓存实战
Redis高可用架构与分布式缓存实战

本专题围绕 Redis 在高并发系统中的应用展开,系统讲解主从复制、哨兵机制、Cluster 集群模式及数据分片原理。内容涵盖缓存穿透与雪崩解决方案、分布式锁实现、热点数据优化及持久化策略。通过真实业务场景演示,帮助开发者构建高可用、可扩展的分布式缓存系统。

23

2026.02.13

c语言 数据类型
c语言 数据类型

本专题整合了c语言数据类型相关内容,阅读专题下面的文章了解更多详细内容。

29

2026.02.12

雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法
雨课堂网页版登录入口与使用指南_官方在线教学平台访问方法

本专题系统整理雨课堂网页版官方入口及在线登录方式,涵盖账号登录流程、官方直连入口及平台访问方法说明,帮助师生用户快速进入雨课堂在线教学平台,实现便捷、高效的课程学习与教学管理体验。

14

2026.02.12

豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法
豆包AI网页版入口与智能创作指南_官方在线写作与图片生成使用方法

本专题汇总豆包AI官方网页版入口及在线使用方式,涵盖智能写作工具、图片生成体验入口和官网登录方法,帮助用户快速直达豆包AI平台,高效完成文本创作与AI生图任务,实现便捷智能创作体验。

421

2026.02.12

PostgreSQL性能优化与索引调优实战
PostgreSQL性能优化与索引调优实战

本专题面向后端开发与数据库工程师,深入讲解 PostgreSQL 查询优化原理与索引机制。内容包括执行计划分析、常见索引类型对比、慢查询优化策略、事务隔离级别以及高并发场景下的性能调优技巧。通过实战案例解析,帮助开发者提升数据库响应速度与系统稳定性。

51

2026.02.12

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号