0

0

【特训营第三期 】基于PaddleClas的多场景杂草分类

P粉084495128

P粉084495128

发布时间:2025-07-24 11:38:06

|

705人浏览过

|

来源于php中文网

原创

本文介绍基于paddleclas的多场景杂草分类研究。使用昆士兰州牧场8种杂草的17508张原位图像,经处理生成训练集(15000张)和验证集(2509张)。选用含49个卷积层和1个全连接层的resnet50模型,通过paddleclas训练,可边训边评并保存最优模型,还能单独评估及用存盘模型预测。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

【特训营第三期 】基于paddleclas的多场景杂草分类 - php中文网

基于PaddleClas的多场景杂草分类

一、数据集介绍

  • 选定的杂草种类是昆士兰州牧场草原的本地物种。它们包括:"Chinee apple", "Snake weed", "Lantana", "Prickly acacia", "Siam weed", "Parthenium", "Rubber vine" and "Parkinsonia". 这些图像是从昆士兰州以下地点的杂草侵扰中收集的地点收集:"Black River", "Charters Towers", "Cluden", "Douglas", "Hervey Range", "Kelso", "McKinlay" and "Paluma". 下表和图表按杂草、位置和地理分布对数据集进行了细分。
  • 【特训营第三期 】基于PaddleClas的多场景杂草分类 - php中文网            
  • 【特训营第三期 】基于PaddleClas的多场景杂草分类 - php中文网            
  • 此数据集的采集更加贴合在自然环境当中,注重实用性。
  • 【特训营第三期 】基于PaddleClas的多场景杂草分类 - php中文网            
  • (a) 在受控实验室环境中拍摄的马缨丹叶图像。(b) 来自DeepWeeds数据集的马缨丹样本图像,原位拍摄,捕捉整个植物的真实视图。

二、模型介绍

  • 通过与多个模型的对比,最终我们选择了ResNet50模型
  • 【特训营第三期 】基于PaddleClas的多场景杂草分类 - php中文网            

ResNet50

  • Resnet50 网络中包含了 49 个卷积层、一个全连接层。如图下图所示,Resnet50网络结构可以分成七个部分,第一部分不包含残差块,主要对输入进行卷积、正则化、激活函数、最大池化的计算。第二、三、四、五部分结构都包含了残差块,图 中的绿色图块不会改变残差块的尺寸,只用于改变残差块的维度。在 Resnet50 网 络 结 构 中 , 残 差 块 都 有 三 层 卷 积 , 那 网 络 总 共 有1+3×(3+4+6+3)=49个卷积层,加上最后的全连接层总共是 50 层,这也是Resnet50 名称的由来。网络的输入为 224×224×3,经过前五部分的卷积计算,输出为 7×7×2048,池化层会将其转化成一个特征向量,最后分类器会对这个特征向量进行计算并输出类别概率。
  • 【特训营第三期 】基于PaddleClas的多场景杂草分类 - php中文网            

三、数据处理

解压数据集

智川X-Agent
智川X-Agent

中科闻歌推出的一站式AI智能体开发平台

下载
In [ ]
!mkdir img 
!unzip /home/aistudio/data/data200134/images.zip -d /home/aistudio/img
   
In [3]
# 导入相关包from sklearn.utils import shuffleimport osimport pandas as pdimport numpy as npfrom PIL import Imageimport paddleimport paddle.nn as nnfrom paddle.io import Datasetimport paddle.vision.transforms as Timport paddle.nn.functional as Ffrom paddle.metric import Accuracyimport random
   
  • 据官方paddleclas的提示,我们需要把图像变为两个txt文件
  • train_txt,val_txt方便训练时读取数据集
In [4]
dirpath = "img"# 先得到总的txt后续再进行划分,因为要划分出验证集,所以要先打乱,因为原本是有序的def get_all_txt():
    all_list = []
    i = 0
    for root in os.listdir(dirpath):
        i = i + 1 
        
        if("0.jpg" in root):
            all_list.append(os.path.join(root)+" 0\n")        if("1.jpg" in root):
            all_list.append(os.path.join(root)+" 1\n")        if("2.jpg" in root):
            all_list.append(os.path.join(root)+" 2\n")        if("3.jpg" in root):
            all_list.append(os.path.join(root)+" 3\n")        if("4.jpg" in root):
            all_list.append(os.path.join(root)+" 4\n")        if("5.jpg" in root):
            all_list.append(os.path.join(root)+" 4\n")        if("6.jpg" in root):
            all_list.append(os.path.join(root)+" 4\n")        if("7.jpg" in root):
            all_list.append(os.path.join(root)+" 4\n")
    allstr = ''.join(all_list)
    f = open('all_list.txt','w',encoding='utf-8')
    f.write(allstr)    return all_list , i

all_list,all_lenth = get_all_txt()print(all_lenth-1) # 有意者是预测的图片,得减去
       
17508
       
In [5]
#打乱原先循序random.shuffle(all_list)
random.shuffle(all_list)
   
In [6]
#划分训练集和验证集train_size = int(15000)
train_list = all_list[:train_size]
val_list = all_list[train_size:]print(len(train_list))print(len(val_list))
       
15000
2509
       
In [7]
# 运行cell,生成txt train_txt = ''.join(train_list)
f_train = open('train_list.txt','w',encoding='utf-8')
f_train.write(train_txt)
f_train.close()print("train_list.txt 生成成功!")
       
train_list.txt 生成成功!
       
In [8]
# 运行cell,生成txtval_txt = ''.join(val_list)
f_val = open('val_list.txt','w',encoding='utf-8')
f_val.write(val_txt)
f_val.close()print("val_list.txt 生成成功!")
       
val_list.txt 生成成功!
       

四、模型训练

In [9]
!unzip -oq /home/aistudio/data/data98136/PaddleClas-release-2.1.zip
   
  • 由于使用的是相对路径,所以我们需要把生成的数据列表移动到“/home/aistudio/PaddleClas-release-2.1/dataset”
In [11]
!mv img PaddleClas-release-2.1/dataset/
!mv all_list.txt PaddleClas-release-2.1/dataset/
!mv train_list.txt PaddleClas-release-2.1/dataset/
!mv val_list.txt PaddleClas-release-2.1/dataset/
   
In [13]
%cd PaddleClas-release-2.1!ls
       
/home/aistudio/PaddleClas-release-2.1
configs  docs	      MANIFEST.in    README_cn.md      setup.py
dataset  __init__.py  paddleclas.py  README.md	       tools
deploy	 LICENSE      ppcls	     requirements.txt
       
  • Paddleclas为我们提供了非常多模型,我们可以根据需求自行选择,"/home/aistudio/PaddleClas-release-2.1/configs"这是配置文件所在的路径,记得修改相关配置【特训营第三期 】基于PaddleClas的多场景杂草分类 - php中文网 【特训营第三期 】基于PaddleClas的多场景杂草分类 - php中文网            
In [ ]
#我们使用提前准备好的配置文件!python tools/train.py \
    -c /home/aistudio/ResNet50.yaml
   

五、模型评估

  • 在训练的过程中,PaddleClas就可以进行边训练边评估,并根据评估的精度值将最优模型参数存储在output/xxx/best_model目录中。 在训练结束后,可以再单独使用eval.py文件进行评估操作。 然后就可以使用存盘的模型文件进行模型预测,一般在研究阶段和比赛阶段,就是这样操作的。 在实际工业落地的时候,对速度要求更高,一般需要将存盘文件转换为推理模型,然后进行推理和部署。
In [ ]
!python tools/eval.py \
    -c /home/aistudio/ResNet50.yaml \
    -o pretrained_model="/home/aistudio/PaddleClas-release-2.1/output/ResNet50/best_model"\
    -o load_static_weights=False
   
  • 模型训练完成之后,可以加载训练得到的预训练模型(就是存盘文件),进行模型预测。在模型库的 tools/infer/infer.py 中提供了完整的示例,只需执行下述命令即可完成模型预测:
In [ ]
!python tools/infer/infer.py \
    -i ~/work/test \
    --model ResNet50 \
    --pretrained_model "/home/aistudio/PaddleClas-release-2.1/output/ResNet50/best_models" \
    --load_static_weights False \
    --class_num=8
   

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
数据分析的方法
数据分析的方法

数据分析的方法有:对比分析法,分组分析法,预测分析法,漏斗分析法,AB测试分析法,象限分析法,公式拆解法,可行域分析法,二八分析法,假设性分析法。php中文网为大家带来了数据分析的相关知识、以及相关文章等内容。

503

2023.07.04

数据分析方法有哪几种
数据分析方法有哪几种

数据分析方法有:1、描述性统计分析;2、探索性数据分析;3、假设检验;4、回归分析;5、聚类分析。本专题为大家提供数据分析方法的相关的文章、下载、课程内容,供大家免费下载体验。

292

2023.08.07

网站建设功能有哪些
网站建设功能有哪些

网站建设功能包括信息发布、内容管理、用户管理、搜索引擎优化、网站安全、数据分析、网站推广、响应式设计、社交媒体整合和电子商务等功能。这些功能可以帮助网站管理员创建一个具有吸引力、可用性和商业价值的网站,实现网站的目标。

756

2023.10.16

数据分析网站推荐
数据分析网站推荐

数据分析网站推荐:1、商业数据分析论坛;2、人大经济论坛-计量经济学与统计区;3、中国统计论坛;4、数据挖掘学习交流论坛;5、数据分析论坛;6、网站数据分析;7、数据分析;8、数据挖掘研究院;9、S-PLUS、R统计论坛。想了解更多数据分析的相关内容,可以阅读本专题下面的文章。

534

2024.03.13

Python 数据分析处理
Python 数据分析处理

本专题聚焦 Python 在数据分析领域的应用,系统讲解 Pandas、NumPy 的数据清洗、处理、分析与统计方法,并结合数据可视化、销售分析、科研数据处理等实战案例,帮助学员掌握使用 Python 高效进行数据分析与决策支持的核心技能。

81

2025.09.08

Python 数据分析与可视化
Python 数据分析与可视化

本专题聚焦 Python 在数据分析与可视化领域的核心应用,系统讲解数据清洗、数据统计、Pandas 数据操作、NumPy 数组处理、Matplotlib 与 Seaborn 可视化技巧等内容。通过实战案例(如销售数据分析、用户行为可视化、趋势图与热力图绘制),帮助学习者掌握 从原始数据到可视化报告的完整分析能力。

59

2025.10.14

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

76

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

38

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

83

2026.03.09

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 4.9万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号