0

0

“中国软件杯”大学生软件设计大赛-3D智慧医疗baseline

P粉084495128

P粉084495128

发布时间:2025-07-21 11:10:52

|

441人浏览过

|

来源于php中文网

原创

“中国软件杯”3D智慧医疗赛题要求基于百度飞桨,完成3D医疗数据分割算法及WEB解析平台开发。算法需用PaddleSeg的MedicaSeg,以AMOS2022数据集(含11个器官标注)训练,采用nnunet模型;平台需实现数据导入、分割等功能。baseline提供了克隆仓库、数据处理、训练推理等全流程操作及权重快速推理方案。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

“中国软件杯”大学生软件设计大赛-3d智慧医疗baseline - php中文网

“中国软件杯”大学生软件设计大赛-3D智慧医疗baseline

比赛介绍

“中国软件杯”大学生软件设计大赛是一项面向中国在校学生的公益性赛事,是2022年全国普通高校大学生竞赛榜单内竞赛。大赛由国家工业和信息化部、教育部、江苏省人民政府共同主办,致力于正确引导我国在校学生积极参加软件科研活动,切实增强自我创新能力和实际动手能力,为我国软件和信息技术服务业培养出更多高端、优秀的人才。

赛题背景

为进一步加强新一代智能技术与医学的深度融合,百度设立了“基于百度飞桨的3D 医疗数据解析平台”的企业赛题,将来自智慧医疗产业一线的系统建设需求,与高校赛训内容相结合,以助力高校复合交叉型AI人才培养,更好促进我国未来智慧医疗产业的健康发展。

医学影像是临床疾病诊断的重要方式,高效精准的从影像中识别出器官结构或病变,是医学影像学中重要的课题。根据成像原理,医疗影像可以粗略分为两类:

  • 2D成像:一种是在可见光下获取的RGB彩照,如眼底彩照、皮肤彩照等;

  • 3D成像:借助非可见光或其它物理效应,由计算机辅助成像,如CXR/DR(X-Ray),CT,核磁共振(MRI)等。如CT与MRI数据是多个2D切片沿第三个空间维度堆叠而成的;

其中,3D影像能够更直观辅助医生提升诊断效率。然而,医疗影像的读片工作对专业知识要求高,这样繁重且重复性较高的阅片工作,仅能由专业的影像科医生完成。另一方面,医疗影像在医学检查中愈发常见,对阅片专家的需求也在增加。随着深度学习技术的发展,我们看到了使用AI技术辅助医生快速分析阅片、减轻阅片工作负担的可能性。

“中国软件杯”大学生软件设计大赛-3D智慧医疗baseline - php中文网        

本次竞赛抽取AMOS2022数据集中的部分数据作为训练和评测数据。 注意:本比赛只允许使用提供的数据集。

赛题任务

为更好满足医疗从业者快速构建医疗识别模型及高效进行图像分析的需求,参赛选手需利用深度学习和软件开发技术实现以下两部分内容:

绘蛙
绘蛙

电商场景的AI创作平台,无需高薪聘请商拍和文案团队,使用绘蛙即可低成本、批量创作优质的商拍图、种草文案

下载
  1. 算法部分:要求选手基于PaddlePaddle,在官方指定数据集上进行打榜,实现在验证集上,给定任一3D医疗数据,准确地完成医学数据的分割任务,并且在新的、未进行过训练的数据集上能够获得较好的泛化性能。
  2. 软件部分:要求选手实现基于WEB的3D医疗数据解析平台,其中包含医疗数据的导入、分割、可视化和数据分析功能四大基础功能,且飞桨模型可在本地或云端部署进行推理。选手可设计更多相关场景的附加功能,通过稳定的软件功能和优秀的人机交互,为非AI专业人员提供良好用户体验。

数据集介绍

多器官数据集共有11个器官的标注,包括脾脏、右肾、左肾、胆囊、食道、肝、胃、主动脉、下腔静脉、胰腺、膀胱。本数据集共包含160个训练数据,40个测试数据。

“中国软件杯”大学生软件设计大赛-3D智慧医疗baseline - php中文网        

PaddleSeg介绍

PaddleSeg是基于飞桨PaddlePaddle的端到端图像分割套件,内置45+模型算法及140+预训练模型,支持配置化驱动和API调用开发方式,打通数据标注、模型开发、训练、压缩、部署的全流程,提供语义分割、交互式分割、Matting、全景分割四大分割能力,助力算法在医疗、工业、遥感、娱乐等场景落地应用。

“中国软件杯”大学生软件设计大赛-3D智慧医疗baseline - php中文网        

本baseline使用PaddleSeg的MedicaSeg开发,github地址:https://github.com/PaddlePaddle/PaddleSeg

老爷们,动动发财的小手,点点star为我们助力,您的支持就是我们的动力~~
“中国软件杯”大学生软件设计大赛-3D智慧医疗baseline - php中文网        

nnunet高精度模型-训练-推理-提交全流程

本baseline使用nnunet 的cascade lowres模型,nnunet包含大量的trick,能够获得很高的精度。

本baseline仅包含部分使用内容,完整的nnunet使用方案请参考:
nnunet教程: https://aistudio.baidu.com/aistudio/projectdetail/4884907?contributionType=1

In [ ]
# step 1: 克隆PaddleSeg仓库%cd ~/
!git clone --branch develop --depth 1 https://github.com/PaddlePaddle/PaddleSeg.git
%cd ~/PaddleSeg
   
In [ ]
# step2: 解压数据到~/PaddleSeg/contrib/MedicalSeg/data/raw_data!mkdir ~/PaddleSeg/contrib/MedicalSeg/data
!unzip -oq ~/data/data204195/base_train.zip -d ~/PaddleSeg/contrib/MedicalSeg/data/raw_data
   
In [ ]
# step 3: 删除原本的数据集压缩包,节约内存!rm -rf ~/data/data204195/base_train.zip
   
In [ ]
# 删除掉数据集中一个没用的文件夹,否则会报错!rm -rf ~/PaddleSeg/contrib/MedicalSeg/data/raw_data/.ipynb_checkpoints
   
In [ ]
###### step 4: 安装依赖包%cd ~/PaddleSeg/contrib/MedicalSeg/
!pip install -r requirements.txt
!pip install medpy
   
In [ ]
# step 5: nnunet cascade lowres训练,混合精度训练快一些,五折训练,这里使用fold 2,一共有0,1,2,3,4共五个fold。# 在训练之前,会先对数据进行预处理,如果觉得耗时过久怀疑出错,可以看一下PaddleSeg/contrib/Medicalseg/data目录里面是否有decathlon、preprocessed、cropped 3个文件夹# 没有这3个文件夹请耐心等待。# 为什么会报错json文件缺失?# 预处理的过程不可中断,如果中断可能导致部分文件丢失,可以把decathlon、preprocessed、cropped报错的文件夹删除,重新生成即可。# 什么是交叉训练?# 假设有100条数据,使用五折交叉验证训练。可以把数据集分为 |20|20|20|20|20|,每次训练的时候,把其中一个作为验证集,其他作为训练集,这样可以得到5个模型,他们的验证集不重复。%cd ~/PaddleSeg/contrib/MedicalSeg/
!python train.py --config ~/configs/nnunet_fold2.yml \
        --log_iters 20 --precision fp16 --nnunet --save_dir output/cascade_lowres/fold2 --save_interval 2000 --use_vdl # --resume_model output/cascade_lowres/fold2/iter_30000
   
In [ ]
# 为了防止内存溢出,请替换cascade预测下一阶段的部分代码!mv ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/cascade_utils.py ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/cascade_utils_backup.py 
!cp ~/cascade_utils.py ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/
   
In [ ]
# step 6: fold2的数据集划分验证一下精度,运行一下,生成下个命令需要用的json,如果不使用后处理策略可以不运行# 有的数据很大,可能导致内存溢出,可以切换A100环境预测下一阶段# 可以除去--predict_next_stage参数,不预测该数据的下一阶段# predict_next_stage的作用是什么?# cascade unet分为2阶段,第一阶段会把分辨率降低进行训练,增强模型的感受野。第二阶段会把第一阶段的模型预测结果和原始数据一起作为输入,所以训练low resolution模型后,# 需要预测下一阶段的输入数据。# 交叉验证和二阶段训练结合为什么这么难懂?# 一阶段交叉训练:|20|20|20|20|20|# 二阶段交叉训练:|20(concat(原始数据,一阶段预测的结果))|20(concat(原始数据,一阶段预测的结果))|20(concat(原始数据,一阶段预测的结果))|20(concat(原始数据,一阶段预测的结果))|20(concat(原始数据,一阶段预测的结果))|# 为了训练第二阶段,需要使用五个模型预测整个数据集,这样二阶段才能训练。%cd ~/PaddleSeg/contrib/MedicalSeg/
!python nnunet/single_fold_eval.py --config ~/configs/nnunet_fold2.yml \
        --model_path output/cascade_lowres/fold2/iter_30000/model.pdparams --val_save_folder output/cascade_lowres_val \
        --precision fp16 --predict_next_stage
   
In [ ]
## 可选步骤:先运行step 7,如果提示内存溢出则运行此命令,替代原本的推理代码!mv ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/predict_utils.py ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/predict_utils_old.py 
!cp ~/predict_utils.py ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/
   
In [ ]
# step 7: 推理# 为什么要用json文件?# nnunet采用了后处理策略对预测结果进行修正,但是后处理策略是否一定会涨点呢?对每个类别,对比使用了后处理和不使用后处理策略的精度,这样就可以决定每个类别是否使用后处理策略。# 需要后处理涨点的类别存放在json中,这是json的作用。# 是否一定要该折对应的json?# 不是,json只是决定某个类别是否使用后处理,即使使用其他折的json,也可以预测,但是后处理的类别可能会错误,这个时候后处理的预测结果不可靠。# 不希望使用后处理策略怎么办?# 命令中加上--disable_postprocessing即可%cd ~/PaddleSeg/contrib/MedicalSeg/
!python nnunet/predict.py --image_folder data/decathlon/imagesTs \
    --output_folder ~/submit \
    --plan_path data/preprocessed/nnUNetPlansv2.1_plans_3D.pkl \
    --model_paths output/cascade_lowres/fold2/iter_30000/model.pdparams \
    --postprocessing_json_path output/cascade_lowres_val/postprocessing.json --model_type cascade_lowres \
    --num_threads_preprocessing 1 --num_threads_nifti_save 1
   
In [ ]
# step 8: 打包提交,生成submit.zip,在/home/aistudio目录下!zip -j ~/submit.zip ~/submit/*.nii.gz
   

nnunet高精度模型 推理-提交全流程

使用提供的权重,快速进行推理提交

In [ ]
# step 1: 克隆PaddleSeg仓库--已有请忽略%cd ~/
!git clone https://github.com/PaddlePaddle/PaddleSeg.git
%cd ~/PaddleSeg
   
In [ ]
# step2: 解压数据到~/PaddleSeg/contrib/MedicalSeg/data/raw_data  ---  如果已经运行过数据预处理,请忽略。~/PaddleSeg/contrib/MedicalSeg/data这个目录下是否有decalthon和preprocess这2个文件夹!mkdir ~/PaddleSeg/contrib/MedicalSeg/data
!unzip -oq ~/data/data204195/base_train.zip -d ~/PaddleSeg/contrib/MedicalSeg/data/raw_data
   
In [ ]
# step 3: 删除原本的数据集压缩包,节约内存!rm -rf ~/data/data204195/base_train.zip
   
In [ ]
# 删除掉数据集中一个没用的文件夹,否则会报错!rm -rf ~/PaddleSeg/contrib/MedicalSeg/data/raw_data/.ipynb_checkpoints
   
In [ ]
# step 4: 安装依赖包 --- 已安装请忽略%cd ~/PaddleSeg/contrib/MedicalSeg/
!pip install -r requirements.txt
!pip install medpy
   
In [ ]
# step 5: fold2的数据集验证一下精度,这里的目的是触发数据预处理,不然step 6没法推理,如果PaddleSeg/contrib/MedicalSeg/data/decathlon文件夹存在,可以跳过%cd ~/PaddleSeg/contrib/MedicalSeg/
!python nnunet/single_fold_eval.py --config ~/configs/nnunet_fold2.yml \
        --model_path ~/baseline_model/model.pdparams --val_save_folder output/cascade_lowres_val \
        --precision fp16
   
In [ ]
## 可选步骤:先运行step 6,如果提示内存溢出则运行此命令,替代原本的推理代码!mv ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/predict_utils.py ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/predict_utils_old.py 
!cp ~/predict_utils.py ~/PaddleSeg/contrib/MedicalSeg/nnunet/utils/
   
In [ ]
# step 6: 使用提供的权重推理,nnunet默认使用tta策略,速度比较慢%cd ~/PaddleSeg/contrib/MedicalSeg/
!python nnunet/predict.py --image_folder data/decathlon/imagesTs \
    --output_folder ~/submit \
    --plan_path data/preprocessed/nnUNetPlansv2.1_plans_3D.pkl \
    --model_paths ~/baseline_model/model.pdparams \
    --postprocessing_json_path ~/baseline_model/postprocessing.json --model_type cascade_lowres \
    --num_threads_preprocessing 1 --num_threads_nifti_save 1 --precision fp16
   
In [ ]
# step 7: 打包提交,生成submit.zip,在/home/aistudio目录下!zip -j ~/submit.zip ~/submit/*.nii.gz
   

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
数据分析的方法
数据分析的方法

数据分析的方法有:对比分析法,分组分析法,预测分析法,漏斗分析法,AB测试分析法,象限分析法,公式拆解法,可行域分析法,二八分析法,假设性分析法。php中文网为大家带来了数据分析的相关知识、以及相关文章等内容。

503

2023.07.04

数据分析方法有哪几种
数据分析方法有哪几种

数据分析方法有:1、描述性统计分析;2、探索性数据分析;3、假设检验;4、回归分析;5、聚类分析。本专题为大家提供数据分析方法的相关的文章、下载、课程内容,供大家免费下载体验。

292

2023.08.07

网站建设功能有哪些
网站建设功能有哪些

网站建设功能包括信息发布、内容管理、用户管理、搜索引擎优化、网站安全、数据分析、网站推广、响应式设计、社交媒体整合和电子商务等功能。这些功能可以帮助网站管理员创建一个具有吸引力、可用性和商业价值的网站,实现网站的目标。

757

2023.10.16

数据分析网站推荐
数据分析网站推荐

数据分析网站推荐:1、商业数据分析论坛;2、人大经济论坛-计量经济学与统计区;3、中国统计论坛;4、数据挖掘学习交流论坛;5、数据分析论坛;6、网站数据分析;7、数据分析;8、数据挖掘研究院;9、S-PLUS、R统计论坛。想了解更多数据分析的相关内容,可以阅读本专题下面的文章。

534

2024.03.13

Python 数据分析处理
Python 数据分析处理

本专题聚焦 Python 在数据分析领域的应用,系统讲解 Pandas、NumPy 的数据清洗、处理、分析与统计方法,并结合数据可视化、销售分析、科研数据处理等实战案例,帮助学员掌握使用 Python 高效进行数据分析与决策支持的核心技能。

81

2025.09.08

Python 数据分析与可视化
Python 数据分析与可视化

本专题聚焦 Python 在数据分析与可视化领域的核心应用,系统讲解数据清洗、数据统计、Pandas 数据操作、NumPy 数组处理、Matplotlib 与 Seaborn 可视化技巧等内容。通过实战案例(如销售数据分析、用户行为可视化、趋势图与热力图绘制),帮助学习者掌握 从原始数据到可视化报告的完整分析能力。

60

2025.10.14

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

76

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

38

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

83

2026.03.09

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 4.9万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号