0

0

一文读懂图卷积神经网络(GCN)

P粉084495128

P粉084495128

发布时间:2025-07-22 17:32:54

|

1210人浏览过

|

来源于php中文网

原创

本文围绕经典论文介绍GCN,解释其定义,即处理图结构数据的网络,输入为带特征的图,输出为节点特征。解析核心公式,通过添加自环、对称归一化邻接矩阵解决信息丢失和尺度问题,还提及在Cora数据集上的应用及数学证明参考。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

一文读懂图卷积神经网络(gcn) - php中文网

GCN 学习

本文讲的GCN理论知识来源于论文:

SEMI-SUPERVISED CLASSIFICATION WITH GRAPH CONVOLUTIONAL NETWORKS

这是在GCN领域最经典的论文之一

1. 什么是GCN

GCN结构图
一文读懂图卷积神经网络(GCN) - php中文网        

我们可以根据这个GCN的图看到,一个拥有 CC 个input channel的graph作为输入,经过中间的hidden layers,得到 FF 个 output channel的输出。

图卷积网络主要可以由两个级别的作用变换组成:

注意本文讲的图都特指无向无权重的图。

  1. graph level:

例如说通过引入一些形式的pooling 操作. 然后改变图的结构。但是本次讲过GCN并没有进行这个级别的操作。所以看到上图我们的网络结构的输出和输出的graph的结构是一样的。

  1. node level:

通常说node level的作用是不改变graph的结构的,仅通过对graph的特征/信号(特征信号 XX 作为输入:一个 NDN∗D 矩阵( NN: 输入图的nodes的个数, DD 输入的特征维度) ,得到输出 ZZ:一个 NFN∗F 的矩阵( FF 输出的特征维度)。

a) 一个特征描述(feature description) xixi : 指的是每个节点 ii 的特征表示

b) 每一个graph 的结构都可以通过邻接矩阵 AA 表示(或者其他根据它推导的矩阵)

举例:

我们可以很容易的根据一个邻接矩阵重构出一个graph。 例如下图: G=(V,E)G=(V,E) 其中 VV 代表节点, EE 代表边

一文读懂图卷积神经网络(GCN) - php中文网        

根据图,我们就可以得出下面的维度图和邻接矩阵

一文读懂图卷积神经网络(GCN) - php中文网        

论文公式提出

因为 AA 可以确定唯一的一张图,这么重要的一个属性我们肯定是要把他放到神经网络传递函数里面去的,所以网络中间的每一个隐藏层可以写成以下的非线性函数:

一文读懂图卷积神经网络(GCN) - php中文网        

其中输入层 H(0)=XH(0)=X , 输出层 H(L)=ZH(L)=Z , LL 是层数。 不同的GCN模型,采用不同 f(,)f(⋅,⋅)函数。

上面是我们理想中的函数的形式,论文中最终推导出来的函数是这样的:

一文读懂图卷积神经网络(GCN) - php中文网        

一文读懂图卷积神经网络(GCN) - php中文网        

论文公式逐步解析

每一个节点下一层的信息是由前一层本身的信息以及相邻的节点的信息加权加和得到,然后再经过线性变换 WW 以及非线性变换 σ()σ() 。

我们一步一步分解,我们要定义一个简单的f(H(l),A)f(H(l),A) 函数,作为基础的网络层。

可以很容易的采用最简单的层级传导(layer-wise propagation)规则:

f(H(l),A)=σ(AH(l)W(l))f(H(l),A)=σ(AH(l)W(l))

我们直接将 AHAH 做矩阵相乘,然后再通过一个权重矩阵 W(l)W(l)做线性变换,之后再经过非线性激活函数 σ()σ(⋅) , 比如说 ReLUReLU,最后得到下一层的输入 Hl+1Hl+1 。

In [ ]
import paddle

A = paddle.to_tensor([
    [0,1,0,0,1,0],
    [1,0,1,0,1,0],
    [0,1,0,1,0,0],
    [0,0,1,0,1,1],
    [1,1,0,1,0,0],
    [0,0,0,1,0,0]],dtype='float32')print(A)

H_0 = paddle.to_tensor([[1],[2],[3],[4],[5],[6]],dtype='float32')print(H_0)

x = paddle.matmul(A,H_0)print(x)
       
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
       [[0., 1., 0., 0., 1., 0.],
        [1., 0., 1., 0., 1., 0.],
        [0., 1., 0., 1., 0., 0.],
        [0., 0., 1., 0., 1., 1.],
        [1., 1., 0., 1., 0., 0.],
        [0., 0., 0., 1., 0., 0.]])
Tensor(shape=[6, 1], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
       [[1.],
        [2.],
        [3.],
        [4.],
        [5.],
        [6.]])
Tensor(shape=[6, 1], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
       [[7. ],
        [9. ],
        [6. ],
        [14.],
        [7. ],
        [4. ]])
       

从上面输出可以看的出来:每个值保留了相邻节点的值

PaperFake
PaperFake

AI写论文

下载

输入层的 x1=[1]x1=[1] , 根据矩阵的运算公式我们可以很容易地得到下一层的该节点的表示 X1=[7]X1′=[7], 也很容易发现 X1(1)=x2+x5X1′(1)=x2+x5,而 x2,x5x2,x5就是节点1的相邻节点。

就是可以看图:

[1] = 2 + 5
[2] = 1+ 3 + 5
······
[6] = 4

所以我们 AHAH 就是快速将相邻的节点的信息相加得到自己下一层的输入。

但是这样就出现了新的问题:

问题一
我们虽然获得了周围节点的信息了,但是自己本身的信息却没了

解决方案:
对每个节点手动增加一条self-loop 到每一个节点,即 A^=A+IA=A+I
其中 II是单位矩阵identity matrix。

问题二
从上面的结果也可以看出,在经过一次的AHAH 矩阵变换后,得到的输出会变大,即特征向量 XX 的scale会改变,在经过多层的变化之后,将和输入的scale差距越来越大。

解决方案:
可以将邻接矩阵 AA 做归一化使得最后的每一行的加和为1,使得 AHAH 获得的是weighted sum。

我们可以将 AA 的每一行除以行的和,这就可以得到normalized的 AA 。而其中每一行的和,就是每个节点的度degree。

用矩阵表示则为: A=D1AA=D−1A ,对于Aij=AijdiAij=diAij

代码展示:

In [8]
import paddleimport numpy as np

A = paddle.to_tensor([
    [0,1,0,0,1,0],
    [1,0,1,0,1,0],
    [0,1,0,1,0,0],
    [0,0,1,0,1,1],
    [1,1,0,1,0,0],
    [0,0,0,1,0,0]],dtype='float32')print(A)

D = paddle.to_tensor([
    [2,0,0,0,0,0],
    [0,3,0,0,0,0],
    [0,0,2,0,0,0],
    [0,0,0,3,0,0],
    [0,0,0,0,3,0],
    [0,0,0,0,0,1]], dtype='float32')print(D)# 防止为0时取倒数变成无穷大D[D==0] = D.max() + 1e100DD = paddle.reciprocal(D)print(DD)

hat_A = paddle.matmul(DD,A)print(hat_A)
       
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
       [[0., 1., 0., 0., 1., 0.],
        [1., 0., 1., 0., 1., 0.],
        [0., 1., 0., 1., 0., 0.],
        [0., 0., 1., 0., 1., 1.],
        [1., 1., 0., 1., 0., 0.],
        [0., 0., 0., 1., 0., 0.]])
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
       [[2., 0., 0., 0., 0., 0.],
        [0., 3., 0., 0., 0., 0.],
        [0., 0., 2., 0., 0., 0.],
        [0., 0., 0., 3., 0., 0.],
        [0., 0., 0., 0., 3., 0.],
        [0., 0., 0., 0., 0., 1.]])
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
       [[0.50000000, 0.        , 0.        , 0.        , 0.        , 0.        ],
        [0.        , 0.33333334, 0.        , 0.        , 0.        , 0.        ],
        [0.        , 0.        , 0.50000000, 0.        , 0.        , 0.        ],
        [0.        , 0.        , 0.        , 0.33333334, 0.        , 0.        ],
        [0.        , 0.        , 0.        , 0.        , 0.33333334, 0.        ],
        [0.        , 0.        , 0.        , 0.        , 0.        , 1.        ]])
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
       [[0.        , 0.50000000, 0.        , 0.        , 0.50000000, 0.        ],
        [0.33333334, 0.        , 0.33333334, 0.        , 0.33333334, 0.        ],
        [0.        , 0.50000000, 0.        , 0.50000000, 0.        , 0.        ],
        [0.        , 0.        , 0.33333334, 0.        , 0.33333334, 0.33333334],
        [0.33333334, 0.33333334, 0.        , 0.33333334, 0.        , 0.        ],
        [0.        , 0.        , 0.        , 1.        , 0.        , 0.        ]])
       

但是在实际运用中采用的是对称的normalization:

用矩阵表示则为:

A=D12AD12A=D−21AD−21

对于Aij=AijdidjAij=didjAij

这其实是跟Laplacian Matrix 有关,拉普拉斯算子是这样的:

L=IND12AD12L=IN−D−21AD−21

In [9]
import paddleimport numpy as np

A = paddle.to_tensor([
    [0,1,0,0,1,0],
    [1,0,1,0,1,0],
    [0,1,0,1,0,0],
    [0,0,1,0,1,1],
    [1,1,0,1,0,0],
    [0,0,0,1,0,0]],dtype='float32')print(A)

D = paddle.to_tensor([
    [2,0,0,0,0,0],
    [0,3,0,0,0,0],
    [0,0,2,0,0,0],
    [0,0,0,3,0,0],
    [0,0,0,0,3,0],
    [0,0,0,0,0,1]], dtype='float32')print(D)# 取逆D[D==0] = D.max() + 1e100DD = paddle.reciprocal(D)print(DD)# 开方_DD = paddle.sqrt(DD)# 求积hat_A = paddle.matmul(paddle.matmul(_DD,A),_DD)print(hat_A)
       
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
       [[0., 1., 0., 0., 1., 0.],
        [1., 0., 1., 0., 1., 0.],
        [0., 1., 0., 1., 0., 0.],
        [0., 0., 1., 0., 1., 1.],
        [1., 1., 0., 1., 0., 0.],
        [0., 0., 0., 1., 0., 0.]])
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
       [[2., 0., 0., 0., 0., 0.],
        [0., 3., 0., 0., 0., 0.],
        [0., 0., 2., 0., 0., 0.],
        [0., 0., 0., 3., 0., 0.],
        [0., 0., 0., 0., 3., 0.],
        [0., 0., 0., 0., 0., 1.]])
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
       [[0.50000000, 0.        , 0.        , 0.        , 0.        , 0.        ],
        [0.        , 0.33333334, 0.        , 0.        , 0.        , 0.        ],
        [0.        , 0.        , 0.50000000, 0.        , 0.        , 0.        ],
        [0.        , 0.        , 0.        , 0.33333334, 0.        , 0.        ],
        [0.        , 0.        , 0.        , 0.        , 0.33333334, 0.        ],
        [0.        , 0.        , 0.        , 0.        , 0.        , 1.        ]])
Tensor(shape=[6, 6], dtype=float32, place=CUDAPlace(0), stop_gradient=True,
       [[0.        , 0.40824828, 0.        , 0.        , 0.40824828, 0.        ],
        [0.40824828, 0.        , 0.40824828, 0.        , 0.33333331, 0.        ],
        [0.        , 0.40824828, 0.        , 0.40824828, 0.        , 0.        ],
        [0.        , 0.        , 0.40824828, 0.        , 0.33333331, 0.57735026],
        [0.40824828, 0.33333331, 0.        , 0.33333331, 0.        , 0.        ],
        [0.        , 0.        , 0.        , 0.57735026, 0.        , 0.        ]])
       

A0,1=A0,1d0d1=123=0.4082A0,1=d0d1A0,1=231=0.4082

把这两个tricks结合起来,我们就可以原文的公式:

一文读懂图卷积神经网络(GCN) - php中文网        

其中 A^=A+IA=A+I , D^D 是 A^A 的degree matrix。 而 D^12A^D^12D−21AD−21 是对 AA 做了一个对称的归一化。

在Cora数据集上训练的两层GCN的隐藏层激活的可视化效果如下:

一文读懂图卷积神经网络(GCN) - php中文网        

2. 数学证明:

附上参考的视频:

https://www.bilibili.com/video/BV1Vw411R7Fj

一文读懂图卷积神经网络(GCN) - php中文网        

一文读懂图卷积神经网络(GCN) - php中文网        

一文读懂图卷积神经网络(GCN) - php中文网        

一文读懂图卷积神经网络(GCN) - php中文网        

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
数据分析的方法
数据分析的方法

数据分析的方法有:对比分析法,分组分析法,预测分析法,漏斗分析法,AB测试分析法,象限分析法,公式拆解法,可行域分析法,二八分析法,假设性分析法。php中文网为大家带来了数据分析的相关知识、以及相关文章等内容。

504

2023.07.04

数据分析方法有哪几种
数据分析方法有哪几种

数据分析方法有:1、描述性统计分析;2、探索性数据分析;3、假设检验;4、回归分析;5、聚类分析。本专题为大家提供数据分析方法的相关的文章、下载、课程内容,供大家免费下载体验。

292

2023.08.07

网站建设功能有哪些
网站建设功能有哪些

网站建设功能包括信息发布、内容管理、用户管理、搜索引擎优化、网站安全、数据分析、网站推广、响应式设计、社交媒体整合和电子商务等功能。这些功能可以帮助网站管理员创建一个具有吸引力、可用性和商业价值的网站,实现网站的目标。

759

2023.10.16

数据分析网站推荐
数据分析网站推荐

数据分析网站推荐:1、商业数据分析论坛;2、人大经济论坛-计量经济学与统计区;3、中国统计论坛;4、数据挖掘学习交流论坛;5、数据分析论坛;6、网站数据分析;7、数据分析;8、数据挖掘研究院;9、S-PLUS、R统计论坛。想了解更多数据分析的相关内容,可以阅读本专题下面的文章。

534

2024.03.13

Python 数据分析处理
Python 数据分析处理

本专题聚焦 Python 在数据分析领域的应用,系统讲解 Pandas、NumPy 的数据清洗、处理、分析与统计方法,并结合数据可视化、销售分析、科研数据处理等实战案例,帮助学员掌握使用 Python 高效进行数据分析与决策支持的核心技能。

82

2025.09.08

Python 数据分析与可视化
Python 数据分析与可视化

本专题聚焦 Python 在数据分析与可视化领域的核心应用,系统讲解数据清洗、数据统计、Pandas 数据操作、NumPy 数组处理、Matplotlib 与 Seaborn 可视化技巧等内容。通过实战案例(如销售数据分析、用户行为可视化、趋势图与热力图绘制),帮助学习者掌握 从原始数据到可视化报告的完整分析能力。

60

2025.10.14

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

37

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

136

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

47

2026.03.10

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 0.9万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号