0

0

Paddle.Hub 初探:快速基于预训练模型实现猫的 12 分类

P粉084495128

P粉084495128

发布时间:2025-07-24 11:50:28

|

422人浏览过

|

来源于php中文网

原创

本文介绍Paddle 2.1.0版本新功能Paddle.Hub API,可快速加载外部扩展模型。以用PaddleClas预训练模型实现猫的12分类为例,演示同步代码、加载模型列表与模型、预处理数据、训练模型及预测的过程,还提及该版本存在的一些问题。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

paddle.hub 初探:快速基于预训练模型实现猫的 12 分类 - php中文网

引入

  • Paddle 最近更新到了 2.1.0 版本了
  • 其中加入了一个新功能,即 Paddle.Hub API
  • 通过这个新功能,可以快速加载外部的拓展模型,比如加载 PaddleClas 中丰富的分类预训练模型
  • 今天就通过这个项目来体验一下这个功能,使用 PaddleClas 中的预训练模型实现极简版的猫的 12 分类

Paddle.Hub

  • 官方文档:直达链接

  • API 简介:

    API 名称 API 功能
    list 查看 Repo 支持的模型列表
    help 查看指定模型的文档
    load 加载指定模型
  • 使用介绍:
    • 简单讲这就是个可以快速调用外部扩展模型的 API
    • 只需要将模型的代码托管在 GitHub 或 Gitee 平台上或者存储在本地
    • 就可以通过这个 API 进行调用,方便开发者分享模型代码供其他人快速使用

快速使用

  • 因为 GitHub 访问速度比较慢的缘故
  • 暂时使用本地加载的方式来演示,所以需要预先同步 repo 的代码至本地后进行使用
In [ ]
# 同步 PaddleClas 代码!git clone https://gitee.com/PaddlePaddle/PaddleClas -b develop --depth 1
   
In [ ]
import paddle# 加载 Repo 中的模型列表model_list = paddle.hub.list('PaddleClas', source='local', force_reload=False)print(model_list)# 查看模型帮助文档model_help = paddle.hub.help('PaddleClas', 'mobilenetv3_large_x1_25', source='local', force_reload=False)print(model_help)# 加载模型model = paddle.hub.load('PaddleClas', 'mobilenetv3_large_x1_25', source='local', force_reload=False)# 模型测试data = paddle.rand((1, 3, 224, 224))
out = model(data)print(out.shape) # [1, 1000]
       
['alexnet', 'densenet121', 'densenet161', 'densenet169', 'densenet201', 'densenet264', 'googlenet', 'inceptionv3', 'inceptionv4', 'mobilenetv1', 'mobilenetv1_x0_25', 'mobilenetv1_x0_5', 'mobilenetv1_x0_75', 'mobilenetv2_x0_25', 'mobilenetv2_x0_5', 'mobilenetv2_x0_75', 'mobilenetv2_x1_5', 'mobilenetv2_x2_0', 'mobilenetv3_large_x0_35', 'mobilenetv3_large_x0_5', 'mobilenetv3_large_x0_75', 'mobilenetv3_large_x1_0', 'mobilenetv3_large_x1_25', 'mobilenetv3_small_x0_35', 'mobilenetv3_small_x0_5', 'mobilenetv3_small_x0_75', 'mobilenetv3_small_x1_0', 'mobilenetv3_small_x1_25', 'resnet101', 'resnet152', 'resnet18', 'resnet34', 'resnet50', 'resnext101_32x4d', 'resnext101_64x4d', 'resnext152_32x4d', 'resnext152_64x4d', 'resnext50_32x4d', 'resnext50_64x4d', 'shufflenetv2_x0_25', 'squeezenet1_0', 'squeezenet1_1', 'vgg11', 'vgg13', 'vgg16', 'vgg19']

    MobileNetV3_large_x1_25
    Args:
        pretrained: bool=False. If `True` load pretrained parameters, `False` otherwise.
        kwargs: 
            class_dim: int=1000. Output dim of last fc layer.
    Returns:
        model: nn.Layer. Specific `MobileNetV3_large_x1_25` model depends on args.
    
[1, 1000]
       

已知问题

  • Paddle 2.1.0 GPU 版本暂时不太稳定,模型能够正常加载和前向计算,但是跑 PaddleHapi 的训练会直接崩溃重启(Issue 已提,Paddle 的 bug,待修复)
  • 通过 Gitee 无法加载,会报错 File is not a zip file(Issue 已提,目前该功能已从文档移除)
  • GitHub 访问速度比较慢,不过这个没啥好办法
  • 每次加载模型后,如果不重启 Notebook 内核就无法重新加载(Issue 已提,PaddleClas 的 bug,待修复)
  • PaddleClas 内的一些模型比如 MobileNet v3 系列,还无法在 PaddleHapi 中正常使用(提交的 pr 已合并)

猫的12分类

任务描述

  • 利用训练的模型来预测数据所属的类别。

数据说明

  • 本数据集包含12种类的猫的图片
  • 整个数据将被分为训练集与测试集。
  • 训练集:在训练集中,我们将提供高清彩色图片以及图片所属的分类
  • 测试集:在测试数据集中,我们仅仅提供彩色图片

解压数据集

  • 使用数据之前第一步就是对训练和测试集进行解压缩
In [ ]
!unzip -q -d /home/aistudio/data/data10954 /home/aistudio/data/data10954/cat_12_train.zip!unzip -q -d /home/aistudio/data/data10954 /home/aistudio/data/data10954/cat_12_test.zip
   

数据预处理

  • 对于一个数据集,首先要了解数据的组成是什么:

    • 解压完的数据集中包括两个图片文件夹以及一个数据列表文件,如下图所示

    Paddle.Hub 初探:快速基于预训练模型实现猫的 12 分类 - php中文网                

    • 其中 cat_12_train 和 cat_12_test 分别存放所有训练和测试集的图片
    • train_list.txt 则是以由一行行"图片 标签"的数据组成的数据列表
      • 如:cat_12_train/8GOkTtqw7E6IHZx4olYnhzvXLCiRsUfM.jpg 0
      • 其中使用0-11分别对12个类别进行标注
      • 中间使用\t作为分隔符
  • 对于一个数据集,为了更好的衡量模型的效果,不能只有训练集和测试集,所以一般需要从中训练集中分出一部分作为验证集使用

  • 了解了上述的内容,就可以开始使用代码来对数据集进行预处理了

    InstantMind
    InstantMind

    AI思维导图生成器,支持30+文件格式一键转换,包括PDF、Word、视频等。

    下载
In [ ]
import osimport paddleimport random

total = []# 读取数据标签with open('/home/aistudio/data/data10954/train_list.txt', 'r', encoding='UTF-8') as f:    for line in f:        # 格式转换
        line = line[:-1].split('\t')
        total.append(' '.join(line)+'\n')# 打乱数据顺序random.shuffle(total)'''
切分数据集
95%的数据作为训练集
5%的数据作为验证集
'''split_num = int(len(total)*0.95) 

# 写入训练数据列表with open('/home/aistudio/data/data10954/train.txt', 'w', encoding='UTF-8') as f:    for line in total[:split_num]:
        f.write(line)# 写入验证数据列表with open('/home/aistudio/data/data10954/dev.txt', 'w', encoding='UTF-8') as f:    for line in total[split_num:]:
        f.write(line)# 写入测试数据列表with open('/home/aistudio/data/data10954/test.txt', 'w', encoding='UTF-8') as f:    for line in ['cat_12_test/%s\n' % img for img in os.listdir('/home/aistudio/data/data10954/cat_12_test')]:
        f.write(line)
   

模型训练

  • 模型训练的一般步骤如下:

    1. 搭建模型
    2. 构建数据集和数据读取器
    3. 配置各种参数
    4. 构建训练任务
    5. 开始训练模型
  • 注:启动训练前请重启 Notebook 内核

  • 注:目前只有 CPU 环境才可以正常运行如下代码

In [ ]
import osimport paddleimport randomimport paddle.nn as nnimport paddle.vision.transforms as T# 构建数据集class CatDataset(paddle.io.Dataset):
    def __init__(self, transforms, dataset_path='/home/aistudio/data/data10954', mode='train'):
        self.mode = mode
        self.dataset_path = dataset_path
        self.transforms = transforms
        self.num_classes = 5

        if self.mode == 'train':
            self.file = 'train.txt'
        elif self.mode == 'dev':
            self.file = 'dev.txt'
        else:
            self.file = 'test.txt'
        self.file = os.path.join(dataset_path, self.file)        with open(self.file, 'r') as file:
            self.data = file.read()[:-1].split('\n')    def __getitem__(self, idx):
        if self.mode in ['train', 'dev']:
            img_path, grt = self.data[idx].split(' ')
            img_path = os.path.join(self.dataset_path, img_path)
            im = paddle.vision.image_load(img_path)
            im = im.convert("RGB")
            im = self.transforms(im)            return im, int(grt)        else:
            img_path = self.data[idx]
            img_path = os.path.join(self.dataset_path, img_path)
            im = paddle.vision.image_load(img_path)
            im = im.convert("RGB")
            im = self.transforms(im)            return im    def __len__(self):
        return len(self.data)# 加载数据集train_transforms = T.Compose([
    T.Resize(256),
    T.RandomCrop(224),
    T.RandomHorizontalFlip(),
    T.RandomVerticalFlip(),
    T.ToTensor(),
    T.Normalize(mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
])

test_transforms = T.Compose([
    T.Resize(256),
    T.CenterCrop(224),
    T.ToTensor(),
    T.Normalize(mean=[0.5, 0.5, 0.5], std=[0.5, 0.5, 0.5])
])

train_dataset = CatDataset(train_transforms, mode='train')
dev_dataset = CatDataset(test_transforms, mode='dev')
test_dataset = CatDataset(test_transforms, mode='test')# 加载模型model = paddle.hub.load('PaddleClas', 'mobilenetv3_large_x0_5', source='local', force_reload=False, class_dim=12, pretrained=True)
model = paddle.Model(model)# 定义优化器opt = paddle.optimizer.Adam(learning_rate=0.001, parameters=model.parameters())# 配置模型model.prepare(optimizer=opt, loss=nn.CrossEntropyLoss(), metrics=paddle.metric.Accuracy(topk=(1, 5)))

model.fit(
    train_data=train_dataset, 
    eval_data=dev_dataset, 
    batch_size=32, 
    epochs=2, 
    eval_freq=1, 
    log_freq=1, 
    save_dir='save_models', 
    save_freq=1, 
    verbose=1, 
    drop_last=False, 
    shuffle=True,
    num_workers=0)
       
2021-05-18 12:43:59 INFO: unique_endpoints {''}
2021-05-18 12:43:59 INFO: Downloading MobileNetV3_large_x0_5_pretrained.pdparams from https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/MobileNetV3_large_x0_5_pretrained.pdparams
100%|██████████| 15875/15875 [00:00<00:00, 18983.36it/s]
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/dygraph/layers.py:1297: UserWarning: Skip loading for out.weight. out.weight receives a shape [1280, 1000], but the expected shape is [1280, 12].
  warnings.warn(("Skip loading for {}. ".format(key) + str(err)))
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/dygraph/layers.py:1297: UserWarning: Skip loading for out.bias. out.bias receives a shape [1000], but the expected shape is [12].
  warnings.warn(("Skip loading for {}. ".format(key) + str(err)))
       
The loss value printed in the log is the current step, and the metric is the average value of previous steps.
Epoch 1/2
       
/opt/conda/envs/python35-paddle120-env/lib/python3.7/site-packages/paddle/fluid/layers/utils.py:77: DeprecationWarning: Using or importing the ABCs from 'collections' instead of from 'collections.abc' is deprecated, and in 3.8 it will stop working
  return (isinstance(seq, collections.Sequence) and
       
step 65/65 [==============================] - loss: 2.7684 - acc_top1: 0.6628 - acc_top5: 0.9464 - 3s/step        
save checkpoint at /home/aistudio/save_models/0
Eval begin...
step 4/4 [==============================] - loss: 0.8948 - acc_top1: 0.7685 - acc_top5: 0.9907 - 732ms/step         
Eval samples: 108
Epoch 2/2
step 65/65 [==============================] - loss: 0.5738 - acc_top1: 0.8397 - acc_top5: 0.9942 - 3s/step        
save checkpoint at /home/aistudio/save_models/1
Eval begin...
step 4/4 [==============================] - loss: 0.5484 - acc_top1: 0.8611 - acc_top5: 0.9907 - 779ms/step         
Eval samples: 108
save checkpoint at /home/aistudio/save_models/final
       

模型预测

  • 模型预测一般步骤:

    1. 读取数据
    2. 模型预测
    3. 预测结果后处理
    4. 输出最终结果
In [ ]
import numpy as np# 模型预测results = model.predict(test_dataset, batch_size=32, num_workers=0, stack_outputs=True, callbacks=None)# 对预测结果进行后处理total = []for img, result in zip(test_dataset.data, np.argmax(results[0], 1)):
    total.append('%s,%s\n' % (img.split('/')[-1], result))# 生成结果文件with open('result.csv','w') as f:    for line in total:
        f.write(line)
       
Predict begin...
step 8/8 [==============================] - 805ms/step        
Predict samples: 240
       

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
github中文官网入口 github中文版官网网页进入
github中文官网入口 github中文版官网网页进入

github中文官网入口https://docs.github.com/zh/get-started,GitHub 是一种基于云的平台,可在其中存储、共享并与他人一起编写代码。 通过将代码存储在GitHub 上的“存储库”中,你可以: “展示或共享”你的工作。 持续“跟踪和管理”对代码的更改。

758

2026.01.21

Python 自然语言处理(NLP)基础与实战
Python 自然语言处理(NLP)基础与实战

本专题系统讲解 Python 在自然语言处理(NLP)领域的基础方法与实战应用,涵盖文本预处理(分词、去停用词)、词性标注、命名实体识别、关键词提取、情感分析,以及常用 NLP 库(NLTK、spaCy)的核心用法。通过真实文本案例,帮助学习者掌握 使用 Python 进行文本分析与语言数据处理的完整流程,适用于内容分析、舆情监测与智能文本应用场景。

10

2026.01.27

拼多多赚钱的5种方法 拼多多赚钱的5种方法
拼多多赚钱的5种方法 拼多多赚钱的5种方法

在拼多多上赚钱主要可以通过无货源模式一件代发、精细化运营特色店铺、参与官方高流量活动、利用拼团机制社交裂变,以及成为多多进宝推广员这5种方法实现。核心策略在于通过低成本、高效率的供应链管理与营销,利用平台社交电商红利实现盈利。

109

2026.01.26

edge浏览器怎样设置主页 edge浏览器自定义设置教程
edge浏览器怎样设置主页 edge浏览器自定义设置教程

在Edge浏览器中设置主页,请依次点击右上角“...”图标 > 设置 > 开始、主页和新建标签页。在“Microsoft Edge 启动时”选择“打开以下页面”,点击“添加新页面”并输入网址。若要使用主页按钮,需在“外观”设置中开启“显示主页按钮”并设定网址。

16

2026.01.26

苹果官方查询网站 苹果手机正品激活查询入口
苹果官方查询网站 苹果手机正品激活查询入口

苹果官方查询网站主要通过 checkcoverage.apple.com/cn/zh/ 进行,可用于查询序列号(SN)对应的保修状态、激活日期及技术支持服务。此外,查找丢失设备请使用 iCloud.com/find,购买信息与物流可访问 Apple (中国大陆) 订单状态页面。

131

2026.01.26

npd人格什么意思 npd人格有什么特征
npd人格什么意思 npd人格有什么特征

NPD(Narcissistic Personality Disorder)即自恋型人格障碍,是一种心理健康问题,特点是极度夸大自我重要性、需要过度赞美与关注,同时极度缺乏共情能力,背后常掩藏着低自尊和不安全感,影响人际关系、工作和生活,通常在青少年时期开始显现,需由专业人士诊断。

7

2026.01.26

windows安全中心怎么关闭 windows安全中心怎么执行操作
windows安全中心怎么关闭 windows安全中心怎么执行操作

关闭Windows安全中心(Windows Defender)可通过系统设置暂时关闭,或使用组策略/注册表永久关闭。最简单的方法是:进入设置 > 隐私和安全性 > Windows安全中心 > 病毒和威胁防护 > 管理设置,将实时保护等选项关闭。

6

2026.01.26

2026年春运抢票攻略大全 春运抢票攻略教你三招手【技巧】
2026年春运抢票攻略大全 春运抢票攻略教你三招手【技巧】

铁路12306提供起售时间查询、起售提醒、购票预填、候补购票及误购限时免费退票五项服务,并强调官方渠道唯一性与信息安全。

117

2026.01.26

个人所得税税率表2026 个人所得税率最新税率表
个人所得税税率表2026 个人所得税率最新税率表

以工资薪金所得为例,应纳税额 = 应纳税所得额 × 税率 - 速算扣除数。应纳税所得额 = 月度收入 - 5000 元 - 专项扣除 - 专项附加扣除 - 依法确定的其他扣除。假设某员工月工资 10000 元,专项扣除 1000 元,专项附加扣除 2000 元,当月应纳税所得额为 10000 - 5000 - 1000 - 2000 = 2000 元,对应税率为 3%,速算扣除数为 0,则当月应纳税额为 2000×3% = 60 元。

35

2026.01.26

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.3万人学习

Django 教程
Django 教程

共28课时 | 3.6万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号