0

0

点云处理:基于Paddle2.0尝试提出Kd-Unet对点云进行分割处理

P粉084495128

P粉084495128

发布时间:2025-08-01 10:46:13

|

593人浏览过

|

来源于php中文网

原创

本文介绍基于Paddle2.0搭建的Kd-Unet点云分割网络,融合Kd-Networks特征提取与Unet结构,编码器用Kd-Networks下采样5次,解码器反卷积上采样5次,含跳跃连接。使用ShapeNet的.h5数据集,训练40轮后训练集miou为0.431,还包含数据处理、网络定义、训练及评估等内容。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

点云处理:基于paddle2.0尝试提出kd-unet对点云进行分割处理 - php中文网

百宝箱
百宝箱

百宝箱是支付宝推出的一站式AI原生应用开发平台,无需任何代码基础,只需三步即可完成AI应用的创建与发布。

下载

点云处理:基于Paddle2.0尝试提出Kd-Unet对点云进行分割处理

项目效果

训练四十轮后的miou:

       


训练集上
miou 0.431



    下列图均是分割后的效果图:

点云处理:基于Paddle2.0尝试提出Kd-Unet对点云进行分割处理 - php中文网 点云处理:基于Paddle2.0尝试提出Kd-Unet对点云进行分割处理 - php中文网        

项目说明

①数据集

    本次用到的数据集是ShapeNet,储存格式是.h5文件。

    .h5储存的key值分别为:

    1、data:这一份数据中所有点的xyz坐标,

    2、label:这一份数据所属类别,如airplane等,

    3、pid:这一份数据中所有点所属的类型,如这一份数据属airplane类,则它包含的所有点的类型有机翼、机身等类型。

       

②Kd-Unet 简介

    Kd-Unet是本人第一次自己尝试搭建的新的网络结构,其融合了Kd-Networks中特征提取和分割以及Unet的想法,是一个点云分割网络,效果貌似还不错。

    Kd-Unet通过模仿Kd-Networks和Unet,在encoder时采取Kd-Networks网络结构下采样5次,对称地,其decoder采取反卷积相应上采样5次,并在同一个stage模仿Unet使用了skip-connection。

    Kd-Unet网络结构:

点云处理:基于Paddle2.0尝试提出Kd-Unet对点云进行分割处理 - php中文网        

项目主体

①解压数据集、导入需要的库

In [ ]
!unzip data/data67117/shapenet_part_seg_hdf5_data.zip!mv hdf5_data dataset
   
In [ ]
import osimport numpy as npimport randomimport h5pyimport paddleimport paddle.nn as nnimport paddle.nn.functional as Ffrom visualdl import LogWriterfrom tools.build_KDTree import build_KDTree
   

②数据处理

1、生成训练和测试样本的list

In [ ]
train_list = ['ply_data_train0.h5', 'ply_data_train1.h5', 'ply_data_train2.h5', 'ply_data_train3.h5', 'ply_data_train4.h5', 'ply_data_train5.h5']
test_list = ['ply_data_test0.h5', 'ply_data_test1.h5']
val_list = ['ply_data_val0.h5']
   

2、数据读取

    注:在数据读取这里,可以借助scipy.spatial中的cKDTree很快地生成kdTree。

       

In [149]
def pointDataLoader(mode='train'):
    path = './dataset/'
    BATCHSIZE = 1
    MAX_POINT = 1024
    LEVELS = (np.log(MAX_POINT) / np.log(2)).astype(int)

    datas = []
    split_dims_v = []
    points_v = []
    labels = []
    labels_v = []    if mode == 'train':        for file_list in train_list:
            f = h5py.File(os.path.join(path, file_list), 'r')
            datas.extend(f['data'][:, :MAX_POINT, :])
            labels.extend(f['pid'][:, :MAX_POINT])
            f.close()    elif mode == 'test':        for file_list in test_list:
            f = h5py.File(os.path.join(path, file_list), 'r')
            datas.extend(f['data'][:, :MAX_POINT, :])
            labels.extend(f['pid'][:, :MAX_POINT])
            f.close()    else:        for file_list in val_list:
            f = h5py.File(os.path.join(path, file_list), 'r')
            datas.extend(f['data'][:, :MAX_POINT, :])
            labels.extend(f['pid'][:, :MAX_POINT])
            f.close()
    datas = np.array(datas)    for i in range(len(datas)):
        split_dim, point_tree, label_tree = build_KDTree(datas[i], labels[i], LEVELS)
        split_dim_v = [np.array(item).astype(np.int64) for item in split_dim]
        split_dims_v.append(split_dim_v)
        points_v.append(point_tree[-1].transpose(0, 2, 1))
        labels_v.append(label_tree[-1].transpose(1, 0))

    split_dims_v = np.array(split_dims_v)
    points_v = np.array(points_v)
    labels = np.array(labels_v)    print('==========load over==========')

    index_list = list(range(len(datas)))    def pointDataGenerator():
        if mode == 'train':
            random.shuffle(index_list)        for i in index_list:
            label = np.reshape(labels[i], [-1, 1024, 1]).astype('int64')
            split_dim_v = split_dims_v[i]
            point_v = points_v[i].astype('float32')            yield split_dim_v, point_v, label    return pointDataGenerator
   

③定义网络

In [ ]
class ConvBNReLU(nn.Layer):
    def __init__(self,
                in_channels,
                out_channels,
                kernel_size,
                stride,
                padding='same',
                **kwargs):
        super().__init__()

        self._conv = nn.Conv1D(
            in_channels, out_channels, kernel_size, stride, padding=padding, **kwargs)

        self._batch_norm = nn.BatchNorm(out_channels)    def forward(self, x):
        x = self._conv(x)
        x = self._batch_norm(x)
        x = F.relu(x)        return x
   
In [ ]
class Downsample(nn.Layer):
    def __init__(self):
        super(Downsample, self).__init__()
        self.convbnrelu1 = ConvBNReLU(3, 32 * 3, 1, 1)
        self.convbnrelu2 = ConvBNReLU(32, 64 * 3, 1, 1)
        self.convbnrelu3 = ConvBNReLU(64, 256 * 3, 1, 1)
        self.convbnrelu4 = ConvBNReLU(256, 512 * 3, 1, 1)
        self.convbnrelu5 = ConvBNReLU(512, 1024 * 3, 1, 1)    def forward(self, x, split_dims_v):
        def kdconv(x, shortcut, dim, featdim, select, convbnrelu):
            shortcut.append(x)
            x = convbnrelu(x)
            x = paddle.reshape(x, (-1, featdim, 3, dim))
            x = paddle.reshape(x, (-1, featdim, 3 * dim))
            select = paddle.to_tensor(select) + (paddle.arange(0, dim) * 3)
            x = paddle.index_select(x, axis=2, index=select)
            x = paddle.reshape(x, (-1, featdim, int(dim / 2), 2))
            x = paddle.max(x, axis=-1)            return x, shortcut

        shortcut = []

        x, shortcut = kdconv(x, shortcut, 1024, 32, split_dims_v[0], self.convbnrelu1)
        x, shortcut = kdconv(x, shortcut, 512, 64, split_dims_v[1], self.convbnrelu2)
        x, shortcut = kdconv(x, shortcut, 256, 256, split_dims_v[2], self.convbnrelu3)
        x, shortcut = kdconv(x, shortcut, 128, 512, split_dims_v[3], self.convbnrelu4)
        x, shortcut = kdconv(x, shortcut, 64, 1024, split_dims_v[4], self.convbnrelu5)        return x, shortcut
   
In [ ]
class Upsample(nn.Layer):
    def __init__(self, k=50):
        super(Upsample, self).__init__()
        self.deconv1 = nn.Conv1DTranspose(1024, 512, 2, 2)
        self.doubleconv1 = nn.Sequential(
            ConvBNReLU(1024, 512, 1, 1),
            ConvBNReLU(512, 512, 1, 1))
        self.deconv2 = nn.Conv1DTranspose(512, 512, 2, 2)
        self.doubleconv2 = nn.Sequential(
            ConvBNReLU(768, 512, 1, 1),
            ConvBNReLU(512, 512, 1, 1))
        self.deconv3 = nn.Conv1DTranspose(512, 256, 2, 2)
        self.doubleconv3 = nn.Sequential(
            ConvBNReLU(320, 256, 1, 1),
            ConvBNReLU(256, 256, 1, 1))
        self.deconv4 = nn.Conv1DTranspose(256, 256, 2, 2)
        self.doubleconv4 = nn.Sequential(
            ConvBNReLU(288, 128, 1, 1),
            ConvBNReLU(128, 128, 1, 1))
        self.deconv5 = nn.Conv1DTranspose(128, 128, 2, 2)
        self.doubleconv5 = nn.Sequential(
            ConvBNReLU(131, 128, 1, 1),
            nn.Conv1D(128, k, 1, 1))    
    def forward(self, x, shortcut):
        x = self.deconv1(x)
        x = paddle.concat([x, shortcut[-1]], axis=1)
        x = self.doubleconv1(x)
        x = self.deconv2(x)
        x = paddle.concat([x, shortcut[-2]], axis=1)
        x = self.doubleconv2(x)
        x = self.deconv3(x)
        x = paddle.concat([x, shortcut[-3]], axis=1)
        x = self.doubleconv3(x)
        x = self.deconv4(x)
        x = paddle.concat([x, shortcut[-4]], axis=1)
        x = self.doubleconv4(x)
        x = self.deconv5(x)
        x = paddle.concat([x, shortcut[-5]], axis=1)
        x = self.doubleconv5(x)
        x = x.transpose((0, 2, 1))
        x = F.softmax(x, axis=-1)        return x
   
In [ ]
class KDNet(nn.Layer):
    def __init__(self, k=16):
        super(KDNet, self).__init__()
        self.downsample = Downsample()
        self.upsample = Upsample(k=50)    def forward(self, x, split_dims_v):
        x, shortcut = self.downsample(x, split_dims_v)
        x = self.upsample(x, shortcut)        return x
   

⑤训练

1、创建训练数据读取器

    注:由于训练数据预处理比较慢,所以先创建训练数据读取器(创建同时会对数据进行预处理),这样在训练时候直接导入就显得训练过程快很多(实际上并没有节省时间,只不过是为了调试方便和读者尝试,把训练数据读取器单独拿出来创建)。

       

In [ ]
train_loader = pointDataLoader(mode='train')
       
==========load over==========
       

2、开始训练

In [147]
def train():
    model = KDNet()
    model.train()
    optim = paddle.optimizer.Adam(parameters=model.parameters(), weight_decay=0.001)

    epoch_num = 100
    all_iou = 0
    for epoch in range(epoch_num):        for batch_id, data in enumerate(train_loader()):
            split_dims_v = data[0]
            points_v = data[1]
            labels = data[2]
            inputs = paddle.to_tensor(points_v)
            labels = paddle.to_tensor(labels)
            
            predict = model(inputs, split_dims_v)
            loss = F.cross_entropy(predict, labels)

            iou, _, _ = paddle.fluid.layers.mean_iou(paddle.unsqueeze(paddle.argmax(predict, axis=-1), axis=-1), labels, 50)       
            all_iou += iou            if batch_id % 100 == 0: 
                miou = all_iou / 100
                all_iou = 0
                print("epoch: {}, batch_id: {}, loss is: {}, miou is: {}".format(epoch, batch_id, loss.numpy(), miou.numpy()))

            loss.backward()
            optim.step()
            optim.clear_grad()        if epoch % 4 == 0:
            paddle.save(model.state_dict(), './model/KDNet.pdparams')
            paddle.save(optim.state_dict(), './model/KDNet.pdopt')if __name__ == '__main__':
    train()
   

⑥评估

1、创建评估数据读取器

In [151]
test_loader = pointDataLoader(mode='val')
       
==========load over==========
       

2、评估数据(原label)可视化

In [156]
def test():
    model = KDNet()
    model_state_dict = paddle.load('./model/KDNet.pdparams')
    model.load_dict(model_state_dict)    for batch_id, data in enumerate(test_loader()):
        split_dims_v = data[0]
        points_v = data[1]
        labels = data[2]
        inputs = paddle.to_tensor(points_v)
        predict = model(inputs, split_dims_v)       
        labels = paddle.to_tensor(labels)        break;
    
    zdata = []
    xdata = []
    ydata = []
    pre_label = []    for i in points_v[0].T:
        xdata.append(i[0])
        ydata.append(i[1])
        zdata.append(i[2])    for i in labels[0].numpy():
        pre_label.append(i[0])    print(np.argmax(np.array(pre_label)))
    map_color = {0:'r', 1:'g', 2:'b', 3:'y'}
    Color = list(map(lambda  x: map_color[x], pre_label))
    xdata = np.array(xdata)
    ydata = np.array(ydata)
    zdata = np.array(zdata)    from mpl_toolkits import mplot3d    import matplotlib.pyplot as plt

    ax = plt.axes(projection='3d')
    ax.scatter3D(xdata, ydata, zdata, c=Color)
    plt.show()if __name__ == '__main__':
    test()
       
208
       
<Figure size 432x288 with 1 Axes>
               

3、评估数据(预测)可视化

In [155]
def test():
    model = KDNet()
    model_state_dict = paddle.load('./model/KDNet.pdparams')
    model.load_dict(model_state_dict)    for batch_id, data in enumerate(test_loader()):
        split_dims_v = data[0]
        points_v = data[1]
        labels = data[2]
        inputs = paddle.to_tensor(points_v)
        predict = model(inputs, split_dims_v)       
        labels = paddle.to_tensor(labels)        break;
    
    zdata = []
    xdata = []
    ydata = []
    pre_label = []    for i in points_v[0].T:
        xdata.append(i[0])
        ydata.append(i[1])
        zdata.append(i[2])    for i in np.argmax(predict[0].numpy(), 1):
        pre_label.append(i)    print(np.argmax(np.array(pre_label)))
    map_color = {0:'r', 1:'g', 2:'b', 3:'y'}
    Color = list(map(lambda  x: map_color[x], pre_label))
    xdata = np.array(xdata)
    ydata = np.array(ydata)
    zdata = np.array(zdata)    from mpl_toolkits import mplot3d    import matplotlib.pyplot as plt

    ax = plt.axes(projection='3d')
    ax.scatter3D(xdata, ydata, zdata, c=Color)
    plt.show()if __name__ == '__main__':
    test()
       
208
       
<Figure size 432x288 with 1 Axes>
               

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

76

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

38

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

83

2026.03.09

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

97

2026.03.06

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

223

2026.03.05

PHP高性能API设计与Laravel服务架构实践
PHP高性能API设计与Laravel服务架构实践

本专题围绕 PHP 在现代 Web 后端开发中的高性能实践展开,重点讲解基于 Laravel 框架构建可扩展 API 服务的核心方法。内容涵盖路由与中间件机制、服务容器与依赖注入、接口版本管理、缓存策略设计以及队列异步处理方案。同时结合高并发场景,深入分析性能瓶颈定位与优化思路,帮助开发者构建稳定、高效、易维护的 PHP 后端服务体系。

458

2026.03.04

AI安装教程大全
AI安装教程大全

2026最全AI工具安装教程专题:包含各版本AI绘图、AI视频、智能办公软件的本地化部署手册。全篇零基础友好,附带最新模型下载地址、一键安装脚本及常见报错修复方案。每日更新,收藏这一篇就够了,让AI安装不再报错!

169

2026.03.04

Swift iOS架构设计与MVVM模式实战
Swift iOS架构设计与MVVM模式实战

本专题聚焦 Swift 在 iOS 应用架构设计中的实践,系统讲解 MVVM 模式的核心思想、数据绑定机制、模块拆分策略以及组件化开发方法。内容涵盖网络层封装、状态管理、依赖注入与性能优化技巧。通过完整项目案例,帮助开发者构建结构清晰、可维护性强的 iOS 应用架构体系。

246

2026.03.03

C++高性能网络编程与Reactor模型实践
C++高性能网络编程与Reactor模型实践

本专题围绕 C++ 在高性能网络服务开发中的应用展开,深入讲解 Socket 编程、多路复用机制、Reactor 模型设计原理以及线程池协作策略。内容涵盖 epoll 实现机制、内存管理优化、连接管理策略与高并发场景下的性能调优方法。通过构建高并发网络服务器实战案例,帮助开发者掌握 C++ 在底层系统与网络通信领域的核心技术。

34

2026.03.03

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 0.9万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号