0

0

飞桨常规赛:PALM病理性近视病灶检测与分割 - 5月第六名方案

P粉084495128

P粉084495128

发布时间:2025-07-31 15:05:59

|

569人浏览过

|

来源于php中文网

原创

该内容围绕palm病理性近视病灶检测与分割赛题展开,介绍了利用paddleseg和patta工具的实现过程。包括克隆相关库、解压数据集、生成数据列表、构建数据集,选用sfnet模型,混合多种损失函数训练,最后进行模型预测并展示结果,以完成病灶分割任务。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

飞桨常规赛:palm病理性近视病灶检测与分割 - 5月第六名方案 - php中文网

0. 赛题介绍

常规赛:PALM病理性近视病灶检测与分割由ISBI2019 PALM眼科挑战赛赛题再现,其中病理性近视病灶检测与分割的任务旨在对眼科图像进行判断,获取两种疾病的分割结果。

数据集由中山大学中山眼科中心提供800张带萎缩和脱离病变分割标注的眼底彩照供选手训练模型,另提供400张带标注数据供平台进行模型测试。图像分辨率为1444×1444,或2124124×2056。标注金标准存储为BMP图像。分割图像大小与对应的眼底图像大小相同,标签如下:

  1. 萎缩病变分割金标准:萎缩区域:0;背景:255;
  2. 脱离病变分割金标准:脱离区域:0;背景:255。

评价指标为:0.5 X F1分数 + 0.5 X Dice

飞桨常规赛:PALM病理性近视病灶检测与分割 - 5月第六名方案 - php中文网        

比赛链接: 常规赛:PALM病理性近视病灶检测与分割

1. 包准备

既然是分割任务,首先想到的是PaddleSeg。那就直接搞起来就对了。这里想到之前遥感分割中用到patta还挺不错的,这里也弄进来一起搅。

In [1]
! git clone https://gitee.com/paddlepaddle/PaddleSeg.git
! pip -q install pattaimport sys

sys.path.append('PaddleSeg')
   

2. 数据准备

2.1解压数据集

这个没啥好写的。

In [2]
! unzip -oq /home/aistudio/data/data85135/常规赛:PALM病理性近视病灶检测与分割.zip! rm -rf __MACOSX
! mv 常规赛:PALM病理性近视病灶检测与分割 dataset
   

2.2 生成数据列表

老套路了,这里按0.9进行划分的,0.9的训练数据,0.1的验证数据。只是这里将两个数据分开进行处理,分别生成数据列表。这里我做点改变就是针对有一个任务标签很少的情况,每当读到它有标签的图像,就写50次进来,希望正负样本可以更加均衡。

一帧秒创
一帧秒创

基于秒创AIGC引擎的AI内容生成平台,图文转视频,无需剪辑,一键成片,零门槛创作视频。

下载
In [4]
import osimport randomdef create_list(lab_class='Detachment', s_rate=9, ex_num=50):
    file_path = 'dataset/Train/fundus_image'
    imgs_name = os.listdir(file_path)
    random.shuffle(imgs_name)    with open('dataset/Train/' + lab_class + '_train.txt', 'w') as tf:        with open('dataset/Train/' + lab_class + '_val.txt', 'w') as ef:            for idx, img_name in enumerate(imgs_name):
                img_path = os.path.join('fundus_image', img_name)
                lab_path = img_exist('dataset/Train', \
                					 img_path.replace('fundus_image', ('Lesion_Masks/' + \
                                     lab_class)).replace('jpg', 'bmp'))                if (idx % 10 + 1) < s_rate:                    if lab_class == 'Detachment' and lab_path != 'None':                        for _ in range(ex_num):
                            tf.write(img_path + ' ' + lab_path + '\n')                    else:
                    	tf.write(img_path + ' ' + lab_path + '\n')                else:
                    ef.write(img_path + ' ' + lab_path + '\n')def img_exist(path, name):
    p = os.path.join(path, name)    if os.path.exists(p):        return name    else:        return 'None'def shuffle_txt(path, save_path):
    out = open(save_path,'w')
    lines = []    with open(path, 'r') as infile:        for line in infile:
            lines.append(line)
        random.shuffle(lines)        for line in lines:
            out.write(line)
    out.close()

create_list('Detachment', s_rate=8)
create_list('Atrophy')
shuffle_txt('dataset/Train/Detachment_train.txt', \		   'dataset/Train/Detachment_train_shuffle.txt')
   

2.3 构建数据集

构建数据集也是套路的seg的方案,只是也是分别进行了处理。

In [2]
from paddleseg.datasets import Datasetimport paddleseg.transforms as T# 构建训练集train_transforms = [
    T.RandomHorizontalFlip(),  # 水平翻转
    T.RandomRotation(),  # detachment
    T.Resize(target_size=(1024, 1024)),  # 修改大小
    T.Normalize()  # 归一化]

d_train_dataset = Dataset(
    transforms=train_transforms,
    dataset_root='dataset/Train',
    num_classes=2,
    mode='train',
    train_path='dataset/Train/Detachment_train_shuffle.txt',
    separator=' ',
)

a_train_dataset = Dataset(
    transforms=train_transforms,
    dataset_root='dataset/Train',
    num_classes=2,
    mode='train',
    train_path='dataset/Train/Atrophy_train.txt',
    separator=' ',
)# 构建验证集val_transforms = [
    T.Resize(target_size=(1024, 1024)),
    T.Normalize()
]

d_val_dataset = Dataset(
    transforms=val_transforms,
    dataset_root='dataset/Train',
    num_classes=2,
    mode='val',
    val_path='dataset/Train/Detachment_val.txt',
    separator=' ',
)

a_val_dataset = Dataset(
    transforms=val_transforms,
    dataset_root='dataset/Train',
    num_classes=2,
    mode='val',
    val_path='dataset/Train/Atrophy_val.txt',
    separator=' ',
)
   

这里也是输出测试一下,看看数据读取有没有什么问题。避免后面报一堆错不知道哪儿去找问题。还可以看看图像是否正确。

In [6]
# import numpy as np# import matplotlib# import matplotlib.pyplot as plt# %matplotlib inline# for img, lab in d_train_dataset:#     print(img.shape, lab.shape)#     plt.subplot(121);plt.imshow(img.transpose((1, 2, 0)))#     plt.subplot(122);plt.imshow(lab)#     plt.show()#     break
   

3. 模型训练

3.1 训练准备

这里选了一个我从来没用过的网路SFNet,不过有一次就会有下一次,所以就尝试下没用过的。损失混合了三种损失,两个任务需要分别进行训练。

In [7]
import paddlefrom paddleseg.models import SFNetfrom paddleseg.models.backbones import ResNet50_vdfrom paddleseg.models.losses import BCELoss, DiceLoss, LovaszHingeLoss, MixedLoss# 模型url = 'a_save_output/best_model/model.pdparams'model = SFNet(num_classes=2, backbone=ResNet50_vd(output_stride=8), \
			  backbone_indices=[0, 1, 2, 3], pretrained=url)# 训练参数epochs = 10batch_size = 4iters = epochs * len(d_train_dataset) // batch_size# 损失函数mix_losses = [BCELoss(), DiceLoss(), LovaszHingeLoss()]
mix_coef = [1, 1, 1]
mixloss = MixedLoss(mix_losses, mix_coef)
losses = {}
losses['types'] = [mixloss]
losses['coef'] = [1]# 学习率及优化器base_lr = 3e-4# lr = paddle.optimizer.lr.CosineAnnealingDecay(base_lr, T_max=(iters // 5))lr = paddle.optimizer.lr.PolynomialDecay(base_lr, 4277 // 2, end_lr=3e-8)
optimizer = paddle.optimizer.Adam(lr, parameters=model.parameters(), weight_decay=paddle.regularizer.L2Decay(1e-9))
       
2021-05-24 18:50:46 [INFO]	No pretrained model to load, ResNet_vd will be trained from scratch.
2021-05-24 18:50:46 [INFO]	Loading pretrained model from a_save_output/best_model/model.pdparams
2021-05-24 18:50:47 [INFO]	There are 354/354 variables loaded into SFNet.
       

3.2 模型训练

分别调用train即可。

In [8]
from paddleseg.core import train

train(
    model=model,
    train_dataset=d_train_dataset,
    val_dataset=d_val_dataset,
    optimizer=optimizer,
    save_dir='d_save_output',
    iters=iters,
    batch_size=batch_size,
    save_interval=int(iters / 10),
    log_iters=10,
    num_workers=0,
    losses=losses,
    use_vdl=True)
   

4. 模型预测

预测这里主要是两个问题。

  1. 由于图像缩小到了1120,所以预测得到的结果需要resize到原大小才行。
  2. 不知道是不是图像太大的问题,一使用patta就GPU炸了,所以这里的结果是没用TTA的结果。
In [1]
import paddlefrom paddleseg.models import SFNetfrom paddleseg.models.backbones import ResNet50_vdimport paddleseg.transforms as Tfrom paddleseg.core import inferimport osimport cv2from tqdm import tqdmfrom PIL import Imageimport numpy as npimport patta as ttadef nn_infer(model, model_path, imgs_path, class_name='Atrophy', is_tta=True):
    params = paddle.load(model_path)
    model.set_dict(params)
    model.eval()    if not os.path.exists('Lesion_Segmentation'):
        os.mkdir('Lesion_Segmentation')    if not os.path.exists(os.path.join('Lesion_Segmentation', class_name)):
        os.mkdir(os.path.join('Lesion_Segmentation', class_name))    # 预测结果
    transforms = T.Compose([
        T.Resize(target_size=(1024, 1024)),
        T.Normalize()
    ])    # 循环预测和保存
    for img_path in tqdm(imgs_path):
        H, W, _ = np.asarray(Image.open(img_path)).shape
        img, _ = transforms(img_path)  # 进行数据预处理
        img = paddle.to_tensor(img[np.newaxis, :])  # C,H,W -> 1,C,H,W
        # TTA
        if is_tta == True:
            tta_pres = paddle.zeros([1, 2, 1024, 1024])            for tta_transform in tta.aliases.flip_transform():
                tta_img = tta_transform.augment_image(img)  # TTA_transforms
                tta_pre = infer.inference(model, tta_img)  # 预测
                deaug_pre = tta_transform.deaugment_mask(tta_pre)
                tta_pres += deaug_pre
            pre = tta_pres / 2.
        else:
            pre = infer.inference(model, img)  # 预测
        pred = paddle.argmax(pre, axis=1).numpy().reshape((1024, 1024)).astype('uint8') * 255
        pred = cv2.resize(pred, (W, H), interpolation=cv2.INTER_NEAREST)
        pil_img = Image.fromarray(pred)
        pil_img.save(os.path.join(('Lesion_Segmentation/' + class_name), img_path.split('/')[-1].replace('jpg', 'png')), 'png')# 网络准备a_model_path='a_save_output/best_model/model.pdparams'd_model_path='d_save_output/best_model/model.pdparams'model = SFNet(num_classes=2, backbone=ResNet50_vd(output_stride=8), \
			  backbone_indices=[0, 1, 2, 3], pretrained=None)# 预测文件set_path = 'dataset/PALM-Testing400-Images'names = os.listdir(set_path)
imgs_path = []for name in names:
    imgs_path.append(os.path.join(set_path, name))# 预测nn_infer(model, a_model_path, imgs_path, class_name='Atrophy', is_tta=False)
nn_infer(model, d_model_path, imgs_path, class_name='Detachment', is_tta=False)
   

5. 结果展示

可以用matplotlib显示一下分割的结果看看。

In [6]
import numpy as npfrom PIL import Imageimport matplotlib.pyplot as plt

%matplotlib inline

img_path = 'dataset/PALM-Testing400-Images/T0225.jpg'inf_a_path = 'Lesion_Segmentation/Atrophy/T0225.png'inf_d_path = 'Lesion_Segmentation/Detachment/T0225.png'img = Image.open(img_path)
inf_a = Image.open(inf_a_path)
inf_d = Image.open(inf_d_path)
plt.figure(figsize=(15, 5))
plt.subplot(131);plt.imshow(img);plt.title('img')
plt.subplot(132);plt.imshow(inf_a);plt.title('inf_a')
plt.subplot(133);plt.imshow(inf_d);plt.title('inf_d')
plt.show()
       
<Figure size 1080x360 with 3 Axes>
               

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

16

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

23

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

75

2026.03.09

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

95

2026.03.06

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

218

2026.03.05

PHP高性能API设计与Laravel服务架构实践
PHP高性能API设计与Laravel服务架构实践

本专题围绕 PHP 在现代 Web 后端开发中的高性能实践展开,重点讲解基于 Laravel 框架构建可扩展 API 服务的核心方法。内容涵盖路由与中间件机制、服务容器与依赖注入、接口版本管理、缓存策略设计以及队列异步处理方案。同时结合高并发场景,深入分析性能瓶颈定位与优化思路,帮助开发者构建稳定、高效、易维护的 PHP 后端服务体系。

420

2026.03.04

AI安装教程大全
AI安装教程大全

2026最全AI工具安装教程专题:包含各版本AI绘图、AI视频、智能办公软件的本地化部署手册。全篇零基础友好,附带最新模型下载地址、一键安装脚本及常见报错修复方案。每日更新,收藏这一篇就够了,让AI安装不再报错!

168

2026.03.04

Swift iOS架构设计与MVVM模式实战
Swift iOS架构设计与MVVM模式实战

本专题聚焦 Swift 在 iOS 应用架构设计中的实践,系统讲解 MVVM 模式的核心思想、数据绑定机制、模块拆分策略以及组件化开发方法。内容涵盖网络层封装、状态管理、依赖注入与性能优化技巧。通过完整项目案例,帮助开发者构建结构清晰、可维护性强的 iOS 应用架构体系。

222

2026.03.03

C++高性能网络编程与Reactor模型实践
C++高性能网络编程与Reactor模型实践

本专题围绕 C++ 在高性能网络服务开发中的应用展开,深入讲解 Socket 编程、多路复用机制、Reactor 模型设计原理以及线程池协作策略。内容涵盖 epoll 实现机制、内存管理优化、连接管理策略与高并发场景下的性能调优方法。通过构建高并发网络服务器实战案例,帮助开发者掌握 C++ 在底层系统与网络通信领域的核心技术。

33

2026.03.03

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Git 教程
Git 教程

共21课时 | 4.1万人学习

Git版本控制工具
Git版本控制工具

共8课时 | 1.6万人学习

Git中文开发手册
Git中文开发手册

共0课时 | 94人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号