0

0

PyTorch中精确冻结中间层参数的策略与实践

碧海醫心

碧海醫心

发布时间:2025-08-22 15:22:01

|

312人浏览过

|

来源于php中文网

原创

PyTorch中精确冻结中间层参数的策略与实践

本教程深入探讨了在PyTorch模型训练中冻结特定中间层参数的两种常见方法:使用torch.no_grad()上下文管理器和直接设置参数的requires_grad属性。通过实验对比,我们揭示了torch.no_grad()可能对上游层产生意外影响,而requires_grad = False是实现精确、选择性层冻结的推荐方案,这对于迁移学习和模型微调至关重要。

在深度学习模型训练中,冻结模型的部分层参数是一个常见的需求,尤其是在迁移学习、模型微调或实验特定层行为时。例如,我们可能希望在预训练模型的基础上,只训练顶层分类器,而保留底层特征提取器的参数不变。然而,如何正确且精确地冻结中间层,同时确保其他层的参数能够正常更新,是pytorch用户经常遇到的问题。本文将详细分析两种常用的方法,并通过代码示例阐明它们的行为差异。

理解参数冻结的需求

假设我们有一个由多个线性层组成的简单神经网络:lin0 -> lin1 -> lin2。我们的目标是冻结lin1层的参数,使其在训练过程中不发生更新,而lin0和lin2层的参数则应正常参与梯度计算和优化器更新。

方法一:使用 torch.no_grad() 上下文管理器

torch.no_grad() 是一个上下文管理器,用于禁用梯度计算。在它作用域内的所有计算都不会构建计算图,这意味着任何在此作用域内产生的张量都不会有grad_fn属性,从而无法进行反向传播。

代码示例:在 forward 方法中使用 torch.no_grad()

import torch
import torch.nn as nn

class SimpleModelWithNoGrad(nn.Module):
    def __init__(self):
        super(SimpleModelWithNoGrad, self).__init__()
        self.lin0 = nn.Linear(1, 2)
        self.lin1 = nn.Linear(2, 2)
        self.lin2 = nn.Linear(2, 10)

    def forward(self, x):
        x = self.lin0(x)
        # 在lin1的计算中使用torch.no_grad()
        with torch.no_grad():
            x = self.lin1(x)
        x = self.lin2(x)
        return x

# 实例化模型
model_no_grad = SimpleModelWithNoGrad()

# 打印初始参数的requires_grad属性
print("--- 使用 torch.no_grad() 时的初始requires_grad ---")
print(f"lin0.weight.requires_grad: {model_no_grad.lin0.weight.requires_grad}")
print(f"lin1.weight.requires_grad: {model_no_grad.lin1.weight.requires_grad}")
print(f"lin2.weight.requires_grad: {model_no_grad.lin2.weight.requires_grad}")

行为分析:

当我们尝试在forward方法中对lin1的计算使用with torch.no_grad():时,实验结果表明,不仅lin1的参数不会更新,连lin0的参数也未能更新。这是因为torch.no_grad()在执行lin1(x)时切断了从lin1到lin0的梯度流。由于lin1的输出不再追踪梯度,因此后续的反向传播无法将梯度信息传递回lin0,导致lin0的参数也无法得到更新。

结论: 这种方法并不适用于仅冻结中间层而让其上游层正常训练的场景。它更适用于在验证、推理阶段或模型中某个子模块确实不需要梯度计算时使用,以节省内存和计算。

方法二:设置 layer.requires_grad = False

PyTorch中的每个nn.Parameter(包括层的权重和偏置)都有一个requires_grad属性,默认为True。当这个属性设置为False时,PyTorch的反向传播机制会跳过这些参数,不计算它们的梯度,因此优化器也不会更新它们。

GentleAI
GentleAI

GentleAI是一个高效的AI工作平台,为普通人提供智能计算、简单易用的界面和专业技术支持。让人工智能服务每一个人。

下载

代码示例:设置 requires_grad = False

import torch
import torch.nn as nn

class SimpleModelWithRequiresGrad(nn.Module):
    def __init__(self):
        super(SimpleModelWithRequiresGrad, self).__init__()
        self.lin0 = nn.Linear(1, 2)
        self.lin1 = nn.Linear(2, 2)
        self.lin2 = nn.Linear(2, 10)

    def forward(self, x):
        x = self.lin0(x)
        x = self.lin1(x)
        x = self.lin2(x)
        return x

# 实例化模型
model_requires_grad = SimpleModelWithRequiresGrad()

# 冻结lin1的参数
# 确保对权重和偏置都进行设置
model_requires_grad.lin1.weight.requires_grad = False
model_requires_grad.lin1.bias.requires_grad = False

# 打印参数的requires_grad属性
print("\n--- 设置 requires_grad = False 后的属性 ---")
print(f"lin0.weight.requires_grad: {model_requires_grad.lin0.weight.requires_grad}")
print(f"lin1.weight.requires_grad: {model_requires_grad.lin1.weight.requires_grad}")
print(f"lin2.weight.requires_grad: {model_requires_grad.lin2.weight.requires_grad}")

# 验证优化器只会更新requires_grad=True的参数
# optimizer = torch.optim.SGD(model_requires_grad.parameters(), lr=0.01)
# 更好的做法是只传入需要更新的参数
# trainable_params = filter(lambda p: p.requires_grad, model_requires_grad.parameters())
# optimizer = torch.optim.SGD(trainable_params, lr=0.01)

行为分析:

通过将model.lin1.weight.requires_grad和model.lin1.bias.requires_grad设置为False,我们成功地冻结了lin1层的参数。在这种情况下,当进行反向传播时,PyTorch会正常计算通过lin2和lin1的梯度,但当遇到lin1的参数时,由于它们的requires_grad为False,其梯度不会被计算和存储。然而,lin1的输出仍然是一个追踪梯度的张量(因为它的输入x来自lin0,且lin0的参数requires_grad为True),因此梯度可以继续反向传播到lin0,使得lin0的参数能够正常更新。

结论: 这是实现精确、选择性层冻结的推荐方法。它允许我们灵活地控制模型中哪些部分的参数参与训练,哪些部分保持不变。

注意事项与最佳实践

  1. 全面冻结层参数: 当冻结一个层时,请确保同时设置其所有可学习参数(通常包括weight和bias)的requires_grad为False。
  2. 优化器参数: 当你冻结了部分参数后,最好只将requires_grad=True的参数传递给优化器。这可以通过以下方式实现:
    trainable_params = filter(lambda p: p.requires_grad, model.parameters())
    optimizer = torch.optim.Adam(trainable_params, lr=0.001)

    虽然将所有model.parameters()传入优化器也能正常工作(优化器会忽略requires_grad=False的参数),但明确过滤可以提高效率和代码清晰度。

  3. model.eval() 的作用: model.eval() 主要用于将模型设置为评估模式,它会禁用Dropout层和BatchNorm层的训练行为(例如,BatchNorm会使用全局均值和方差而不是批次统计量)。它不会自动冻结参数或禁用梯度计算。因此,冻结参数需要单独设置requires_grad = False。
  4. torch.no_grad() 的适用场景: torch.no_grad() 仍然是进行推理、验证或在训练循环中不需要梯度计算的特定代码块(例如,计算不参与损失的辅助指标)的理想选择,因为它能节省内存并加速计算。

总结

在PyTorch中冻结模型中间层参数时,理解torch.no_grad()和layer.requires_grad = False之间的区别至关重要。torch.no_grad()是一个上下文管理器,会禁用其作用域内所有计算的梯度追踪,可能意外地影响上游层的梯度流。而直接设置layer.requires_grad = False则是更精确和推荐的方法,它允许我们选择性地冻结特定层的参数,同时保持其他层参数的正常训练。掌握这一技术对于高效地进行模型微调、迁移学习以及各种深度学习实验具有重要意义。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
pytorch是干嘛的
pytorch是干嘛的

pytorch是一个基于python的深度学习框架,提供以下主要功能:动态图计算,提供灵活性。强大的张量操作,实现高效处理。自动微分,简化梯度计算。预构建的神经网络模块,简化模型构建。各种优化器,用于性能优化。想了解更多pytorch的相关内容,可以阅读本专题下面的文章。

469

2024.05.29

Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习
Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习

PyTorch 是一种用于构建深度学习模型的功能完备框架,是一种通常用于图像识别和语言处理等应用程序的机器学习。 使用Python 编写,因此对于大多数机器学习开发者而言,学习和使用起来相对简单。 PyTorch 的独特之处在于,它完全支持GPU,并且使用反向模式自动微分技术,因此可以动态修改计算图形。

27

2025.12.22

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

25

2026.03.13

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

44

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

177

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

50

2026.03.10

Kotlin Android模块化架构与组件化开发实践
Kotlin Android模块化架构与组件化开发实践

本专题围绕 Kotlin 在 Android 应用开发中的架构实践展开,重点讲解模块化设计与组件化开发的实现思路。内容包括项目模块拆分策略、公共组件封装、依赖管理优化、路由通信机制以及大型项目的工程化管理方法。通过真实项目案例分析,帮助开发者构建结构清晰、易扩展且维护成本低的 Android 应用架构体系,提升团队协作效率与项目迭代速度。

92

2026.03.09

JavaScript浏览器渲染机制与前端性能优化实践
JavaScript浏览器渲染机制与前端性能优化实践

本专题围绕 JavaScript 在浏览器中的执行与渲染机制展开,系统讲解 DOM 构建、CSSOM 解析、重排与重绘原理,以及关键渲染路径优化方法。内容涵盖事件循环机制、异步任务调度、资源加载优化、代码拆分与懒加载等性能优化策略。通过真实前端项目案例,帮助开发者理解浏览器底层工作原理,并掌握提升网页加载速度与交互体验的实用技巧。

102

2026.03.06

Rust内存安全机制与所有权模型深度实践
Rust内存安全机制与所有权模型深度实践

本专题围绕 Rust 语言核心特性展开,深入讲解所有权机制、借用规则、生命周期管理以及智能指针等关键概念。通过系统级开发案例,分析内存安全保障原理与零成本抽象优势,并结合并发场景讲解 Send 与 Sync 特性实现机制。帮助开发者真正理解 Rust 的设计哲学,掌握在高性能与安全性并重场景中的工程实践能力。

227

2026.03.05

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 0.9万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号