0

0

经验总结1:过拟合问题以及优化技巧,炼丹进阶,面向新手,大佬们欢迎指正

P粉084495128

P粉084495128

发布时间:2025-08-01 14:04:18

|

613人浏览过

|

来源于php中文网

原创

本文围绕深度学习中的过拟合问题展开,先说明其表现为训练集准确率高而泛化能力低,全连接网络易出现。通过半圆形数据集案例验证过拟合存在,进而分析原因,并介绍增大数据集、正则化、Dropout等解决策略及其实验效果。

☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

经验总结1:过拟合问题以及优化技巧,炼丹进阶,面向新手,大佬们欢迎指正 - php中文网

过拟合问题描述

在深度学习中,在训练集得到了很高的准确率,但当模型面对未知数据时,准确率却下降很多,这种情况下模型的一个泛化能力很低。

对于全连接网络,模型通道数越大,模型拟合能力越强,模型层数越深,模型泛化能力越强。

过拟合问题原因

这是由于模型的拟合度太强造成的,即模型不但学习样本的群体规律,而且学习了样本的个体规律,这种现象在全连接网络最容易出现。

本项目将基于这个问题进行整理,主要也是自己的整理学习,进行一个学习分享。

一个例子更好的说明这个问题

案例描述:

假设有这样的一组数据集样本,包含两种数据分布,每种数据分布都为半圆形状,让网络学习这些样本,并寻找其中规律,从而分开。接着重新用一组数据输入模型,验证模型准确率,观察是否出现过拟合现象。

构造数据集

In [10]
import sklearn.datasets     #引入数据集import paddleimport numpy as npimport matplotlib.pyplot as plt

np.random.seed(0)           #设置随机数种子X, Y = sklearn.datasets.make_moons(40,noise=0.2) #生成2组半圆形数据arg = np.squeeze(np.argwhere(Y==0),axis = 1)     #获取第1组数据索引arg2 = np.squeeze(np.argwhere(Y==1),axis = 1)#获取第2组数据索引plt.title("train moons data")
plt.scatter(X[arg,0], X[arg,1], s=100,c='b',marker='+',label='data1')
plt.scatter(X[arg2,0], X[arg2,1],s=40, c='r',marker='o',label='data2')
plt.legend()
plt.show()
       
<Figure size 432x288 with 1 Axes>
               

模型构造

In [2]
import paddleimport numpy as npimport matplotlib.pyplot as pltimport paddle.nn as nn#继承nn.Layer类,构建网络模型class LogicNet(nn.Layer):
    def __init__(self,inputdim,hiddendim,outputdim):#初始化网络结构
        super(LogicNet,self).__init__()
        self.Linear1 = nn.Linear(inputdim,hiddendim) #定义全连接层
        self.Linear2 = nn.Linear(hiddendim,outputdim)#定义全连接层
        self.criterion = nn.CrossEntropyLoss() #定义交叉熵函数

    def forward(self,x): #搭建用两层全连接组成的网络模型
        x = self.Linear1(x)#将输入数据传入第1层
        x = paddle.nn.Tanh()(x)#对第一层的结果进行非线性变换
        x = self.Linear2(x)#再将数据传入第2层#        print("LogicNet")
        return x    def predict(self,x):#实现LogicNet类的预测接口
        #调用自身网络模型,并对结果进行softmax处理,分别得出预测数据属于每一类的概率
        pred = paddle.nn.Softmax(axis=1)(self.forward(x))        return paddle.argmax(pred,axis=1)  #返回每组预测概率中最大的索引

    def getloss(self,x,y): #实现LogicNet类的损失值计算接口
        y_pred = self.forward(x)
        loss = self.criterion(y_pred,y)#计算损失值得交叉熵
        return loss
   
In [3]
def moving_average(a, w=10):#定义函数计算移动平均损失值
    if len(a) < w:        return a[:]    return [val if idx < w else sum(a[(idx-w):idx])/w for idx, val in enumerate(a)]
   
In [4]
def plot_decision_boundary(pred_func,X,Y):#在直角坐标系中可视化模型能力
    #计算取值范围
    x_min, x_max = X[:, 0].min() - .5, X[:, 0].max() + .5
    y_min, y_max = X[:, 1].min() - .5, X[:, 1].max() + .5
    h = 0.01
    #在坐标系中采用数据,生成网格矩阵,用于输入模型
    xx,yy=np.meshgrid(np.arange(x_min, x_max, h), np.arange(y_min, y_max, h))    #将数据输入并进行预测
    Z = pred_func(np.c_[xx.ravel(), yy.ravel()])
    Z = Z.reshape(xx.shape)    #将预测的结果可视化
    plt.contourf(xx, yy, Z, cmap=plt.cm.Spectral)
    plt.title("Linear predict")
    arg = np.squeeze(np.argwhere(Y==0),axis = 1)
    arg2 = np.squeeze(np.argwhere(Y==1),axis = 1)
    plt.scatter(X[arg,0], X[arg,1], s=100,c='b',marker='+')
    plt.scatter(X[arg2,0], X[arg2,1],s=40, c='r',marker='o')
    plt.show()def predict(model,x):   #封装支持Numpy的预测接口
    x = paddle.to_tensor(x).astype("float32")
    ans = model.predict(x)    return ans.numpy()
   
In [5]
xx,yy = np.meshgrid(np.arange(3,5, 0.1), np.arange(4, 6, 0.1))
np.c_[xx.ravel(), yy.ravel()].shape
       
(400, 2)
               

展示过拟合现象

In [6]
model = LogicNet(inputdim=2,hiddendim=500,outputdim=2)#初始化模型optimizer = paddle.optimizer.Adam(learning_rate = 0.01,parameters = model.parameters()) #定义优化器xt = paddle.to_tensor(X).astype("float32")#将Numpy数据转化为张量yt = paddle.to_tensor(Y).astype("int64")
epochs = 3000#定义迭代次数losses = []#定义列表,用于接收每一步的损失值for i in range(epochs):
    loss = model.getloss(xt,yt)
    losses.append(loss.numpy()[0])
    loss.backward()#反向传播损失值
    optimizer.step()#更新参数
    optimizer.clear_grad()#清空之前的梯度avgloss= moving_average(losses) #获得损失值的移动平均值plt.figure(1)
plt.subplot(211)
plt.plot(range(len(avgloss)), avgloss, 'b--')
plt.xlabel('step number')
plt.ylabel('Training loss')
plt.title('step number vs. Training loss')
plt.show()


plot_decision_boundary(lambda x : predict(model,x) ,X, Y)from sklearn.metrics import accuracy_scoreprint("训练时的准确率:",accuracy_score(model.predict(xt),yt))

Xtest, Ytest = sklearn.datasets.make_moons(80,noise=0.2) #生成2组半圆形数据plot_decision_boundary(lambda x : predict(model,x) ,Xtest, Ytest)
Xtest_t = paddle.to_tensor(Xtest).astype("float32")#将Numpy数据转化为张量Ytest_t = paddle.to_tensor(Ytest).astype("int64") 
print("测试时的准确率:",accuracy_score(model.predict(Xtest_t),Ytest_t))
       
<Figure size 432x288 with 1 Axes>
               
<Figure size 432x288 with 1 Axes>
               
训练时的准确率: 1.0
       
<Figure size 432x288 with 1 Axes>
               
测试时的准确率: 0.925
       

我们已经通过实验证明了过拟合的存在,接下来就是分析并解决

在深度学习中,模型的过拟合问题是普遍存在的,因为网络在训练的过程中只看到了有新的信息,在数据量不足的情况下,无法合理的区分哪些属于个体特征,哪些属于群体特征。真实场景下,所有的样本特征都是多样的,很难在训练数据集中将所有的样本情况全部包括。

但是我们仍然可以寻找到一些有效的改良过拟合的方法.类似early stopping 数据集增广,正则化,dropout 这些方法可以使模型的泛化能力大大提升。

  1. early stopping: 在发生过拟合之前提前结束训练,这个方法理论上是可行的,但是这个结束时间点很不好把控。

  2. 数据集扩增:就是让模型遇到更多的情况,可以最大满足样本,但实际应用中对于未来事件的预测却显得“力不从心”.

  3. 正则化通过引入范数的概念,增强模型的泛化能力,包含l1正则化,l2正则化.所谓正则化,就是在神经网络计算损失过程中,在损失后面再加一项,这样损失持所代表的输出与标准结果的误差,就会受到干扰,导致学习参数w和b 无法按照目标方向来调整,实现模型无法与样本完全拟合的结果,从而防止过拟合.干扰项需要满足以下特性:

    PaperFake
    PaperFake

    AI写论文

    下载
    1. 当模型拟合能力不足时,希望他对模型误差尽量小,让模型快速拟合实际
    2. 如果过拟合,那么希望他对模型误差影响要大,于是引入了两个范数l1范数和l2范数,如果放在损失函数中,就会产生一点变形,L1 所有学习参数w的绝对值的和,l2指的是所有学习参数w的平方的和。
    # Example1: set Regularizer l1 in optimizer
               

import paddle from paddle.regularizer import L1Decay import numpy as np linear = paddle.nn.Linear(10, 10) inp = paddle.rand(shape=[10, 10], dtype="float32") out = linear(inp) loss = paddle.mean(out) beta1 = paddle.to_tensor([0.9], dtype="float32") beta2 = paddle.to_tensor([0.99], dtype="float32") momentum = paddle.optimizer.Momentum( learning_rate=0.1, parameters=linear.parameters(), weight_decay=L1Decay(0.0001)) back = out.backward() momentum.step() momentum.clear_grad()

# Example2: set Regularizer l2 in optimizer
       

import paddle from paddle.regularizer import L2Decay import numpy as np linear = paddle.nn.Linear(10, 10) inp = paddle.rand(shape=[10, 10], dtype="float32") out = linear(inp) loss = paddle.mean(out) beta1 = paddle.to_tensor([0.9], dtype="float32") beta2 = paddle.to_tensor([0.99], dtype="float32") momentum = paddle.optimizer.Momentum( learning_rate=0.1, parameters=linear.parameters(), weight_decay=L2Decay(0.0001)) back = out.backward() momentum.step() momentum.clear_grad()

```
       
  1. Dropout每次训练舍弃一些节点增强泛化能力。

增大数据集策略

In [7]
model = LogicNet(inputdim=2,hiddendim=500,outputdim=2)#初始化模型optimizer = paddle.optimizer.Adam(learning_rate = 0.01,parameters = model.parameters()) #定义优化器epochs = 3000#定义迭代次数losses = []#定义列表,用于接收每一步的损失值for i in range(epochs):
    X, Y = sklearn.datasets.make_moons(40,noise=0.2) #生成2组半圆形数据

    xt = paddle.to_tensor(X).astype("float32")#将Numpy数据转化为张量
    yt = paddle.to_tensor(Y).astype("int64")
    loss = model.getloss(xt,yt)
    losses.append(loss.item())
    loss.backward()#反向传播损失值
    optimizer.step()#更新参数
    optimizer.clear_grad()#清空之前的梯度avgloss= moving_average(losses) #获得损失值的移动平均值plt.figure(1)
plt.subplot(211)
plt.plot(range(len(avgloss)), avgloss, 'b--')
plt.xlabel('step number')
plt.ylabel('Training loss')
plt.title('step number vs. Training loss')
plt.show()

plot_decision_boundary(lambda x : predict(model,x) ,X, Y)from sklearn.metrics import accuracy_scoreprint("训练时的准确率:",accuracy_score(model.predict(xt),yt))

Xtest, Ytest = sklearn.datasets.make_moons(80,noise=0.2) #生成2组半圆形数据plot_decision_boundary(lambda x : predict(model,x) ,Xtest, Ytest)
Xtest_t = paddle.to_tensor(Xtest).astype("float32")#将Numpy数据转化为张量Ytest_t = paddle.to_tensor(Ytest).astype("int64") 
print("测试时的准确率:",accuracy_score(model.predict(Xtest_t),Ytest_t))
       
<Figure size 432x288 with 1 Axes>
               
<Figure size 432x288 with 1 Axes>
               
训练时的准确率: 0.95
       
<Figure size 432x288 with 1 Axes>
               
测试时的准确率: 0.9625
       

使用正则化策略

在这里,像我这种新手一般对于优化器的更加详细的使用存在疑惑,这里我进行了一定的整理:

请结合下方代码块看

optimizer = paddle.optimizer.Adam(learning_rate = 0.01,parameters = 
                  [{'params': weight_p, 'weight_decay':0.001,"learning_rate":1},
                      {'params': bias_p, 'weight_decay':0.},],weight_decay=L2Decay(0.001)) #定义优化器
       

对于weight_p 来说这个实际的学习率到底是多少?应该是单独设置的学习率乘以一个基础设置的学习率,即1*0.01,但是对于对于weight_p的weight_decay可以是完全独立设置的。如果你传入的是float(如果是某个参数不想参与正则化就设置为0. ,而不是0),那么默认使用的正则化就是L2正则化.个人感觉L2正则化更好用一点。

这是源代码解释:

地址:https://github.com/PaddlePaddle/Paddle/blob/b79c6a9b3315742283a923ed52a5934c231beeff/python/paddle/optimizer/optimizer.py#L177经验总结1:过拟合问题以及优化技巧,炼丹进阶,面向新手,大佬们欢迎指正 - php中文网            

然后也可以写成

# 实现只对权重w进行正则化(如果对b进行正则化有可能会导致欠拟合)optimizer = paddle.optimizer.Adam(learning_rate = 0.01,parameters = [{'params': weight_p, 'weight_decay':L2Decay(0.001),"learning_rate":1},
                      {'params': bias_p, 'weight_decay':0.},],weight_decay=L1Decay(0.001)) #定义优化器
   
In [8]
from paddle.regularizer import L2Decay,L1Decay
paddle.seed(0)
model = LogicNet(inputdim=2,hiddendim=500,outputdim=2)#初始化模型weight_p, bias_p = [],[]for name, p in model.named_parameters():    if 'bias' in name:
        bias_p += [p]    else:
        weight_p += [p]

optimizer = paddle.optimizer.Adam(learning_rate = 0.01,parameters = 
                  [{'params': weight_p, 'weight_decay':0.001,"learning_rate":1},
                      {'params': bias_p, 'weight_decay':0.},],weight_decay=L2Decay(0.001)) #定义优化器xt = paddle.to_tensor(X).astype("float32")#将Numpy数据转化为张量yt = paddle.to_tensor(Y).astype("int64")
epochs = 3000#定义迭代次数losses = []#定义列表,用于接收每一步的损失值for i in range(epochs):
    loss = model.getloss(xt,yt)
    losses.append(loss.numpy()[0])
    loss.backward()#反向传播损失值
    optimizer.step()#更新参数
    optimizer.clear_grad()#清空之前的梯度avgloss= moving_average(losses) #获得损失值的移动平均值plt.figure(1)
plt.subplot(211)
plt.plot(range(len(avgloss)), avgloss, 'b--')
plt.xlabel('step number')
plt.ylabel('Training loss')
plt.title('step number vs. Training loss')
plt.show()


plot_decision_boundary(lambda x : predict(model,x) ,X, Y)from sklearn.metrics import accuracy_scoreprint("训练时的准确率:",accuracy_score(model.predict(xt),yt))

Xtest, Ytest = sklearn.datasets.make_moons(80,noise=0.2) #生成2组半圆形数据plot_decision_boundary(lambda x : predict(model,x) ,Xtest, Ytest)
Xtest_t = paddle.to_tensor(Xtest).astype("float32")#将Numpy数据转化为张量Ytest_t = paddle.to_tensor(Ytest).astype("int64") 
print("测试时的准确率:",accuracy_score(model.predict(Xtest_t),Ytest_t))
       
<Figure size 432x288 with 1 Axes>
               
<Figure size 432x288 with 1 Axes>
               
训练时的准确率: 0.975
       
<Figure size 432x288 with 1 Axes>
               
测试时的准确率: 0.9125
       

最后展示一下使用Dropout策略

In [9]
import paddleimport numpy as npimport matplotlib.pyplot as pltimport paddle.nn as nn#继承nn.Layer类,构建网络模型class LogicNet(nn.Layer):
    def __init__(self,inputdim,hiddendim,outputdim):#初始化网络结构
        super(LogicNet,self).__init__()
        self.Linear1 = nn.Linear(inputdim,hiddendim) #定义全连接层
        self.Linear2 = nn.Linear(hiddendim,outputdim)#定义全连接层
        self.criterion = nn.CrossEntropyLoss() #定义交叉熵函数

    def forward(self,x): #搭建用两层全连接组成的网络模型
        x = self.Linear1(x)#将输入数据传入第1层
        x = paddle.nn.Tanh()(x)#对第一层的结果进行非线性变换
        x = nn.Dropout(0.2)(x)
        x = self.Linear2(x)#再将数据传入第2层#        print("LogicNet")
        return x    def predict(self,x):#实现LogicNet类的预测接口
        #调用自身网络模型,并对结果进行softmax处理,分别得出预测数据属于每一类的概率
        pred = paddle.nn.Softmax(axis=1)(self.forward(x))        return paddle.argmax(pred,axis=1)  #返回每组预测概率中最大的索引

    def getloss(self,x,y): #实现LogicNet类的损失值计算接口
        y_pred = self.forward(x)
        loss = self.criterion(y_pred,y)#计算损失值得交叉熵
        return loss

model = LogicNet(inputdim=2,hiddendim=500,outputdim=2)#初始化模型optimizer = paddle.optimizer.Adam(learning_rate = 0.01,parameters = model.parameters()) #定义优化器xt = paddle.to_tensor(X).astype("float32")#将Numpy数据转化为张量yt = paddle.to_tensor(Y).astype("int64")
epochs = 3000#定义迭代次数losses = []#定义列表,用于接收每一步的损失值for i in range(epochs):
    loss = model.getloss(xt,yt)
    losses.append(loss.numpy()[0])
    loss.backward()#反向传播损失值
    optimizer.step()#更新参数
    optimizer.clear_grad()#清空之前的梯度avgloss= moving_average(losses) #获得损失值的移动平均值plt.figure(1)
plt.subplot(211)
plt.plot(range(len(avgloss)), avgloss, 'b--')
plt.xlabel('step number')
plt.ylabel('Training loss')
plt.title('step number vs. Training loss')
plt.show()


plot_decision_boundary(lambda x : predict(model,x) ,X, Y)from sklearn.metrics import accuracy_scoreprint("训练时的准确率:",accuracy_score(model.predict(xt),yt))

Xtest, Ytest = sklearn.datasets.make_moons(80,noise=0.2) #生成2组半圆形数据plot_decision_boundary(lambda x : predict(model,x) ,Xtest, Ytest)
Xtest_t = paddle.to_tensor(Xtest).astype("float32")#将Numpy数据转化为张量Ytest_t = paddle.to_tensor(Ytest).astype("int64") 
print("测试时的准确率:",accuracy_score(model.predict(Xtest_t),Ytest_t))
       
<Figure size 432x288 with 1 Axes>
               
<Figure size 432x288 with 1 Axes>
               
训练时的准确率: 0.95
       
<Figure size 432x288 with 1 Axes>
               
测试时的准确率: 0.9
       

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
数据分析的方法
数据分析的方法

数据分析的方法有:对比分析法,分组分析法,预测分析法,漏斗分析法,AB测试分析法,象限分析法,公式拆解法,可行域分析法,二八分析法,假设性分析法。php中文网为大家带来了数据分析的相关知识、以及相关文章等内容。

504

2023.07.04

数据分析方法有哪几种
数据分析方法有哪几种

数据分析方法有:1、描述性统计分析;2、探索性数据分析;3、假设检验;4、回归分析;5、聚类分析。本专题为大家提供数据分析方法的相关的文章、下载、课程内容,供大家免费下载体验。

292

2023.08.07

网站建设功能有哪些
网站建设功能有哪些

网站建设功能包括信息发布、内容管理、用户管理、搜索引擎优化、网站安全、数据分析、网站推广、响应式设计、社交媒体整合和电子商务等功能。这些功能可以帮助网站管理员创建一个具有吸引力、可用性和商业价值的网站,实现网站的目标。

759

2023.10.16

数据分析网站推荐
数据分析网站推荐

数据分析网站推荐:1、商业数据分析论坛;2、人大经济论坛-计量经济学与统计区;3、中国统计论坛;4、数据挖掘学习交流论坛;5、数据分析论坛;6、网站数据分析;7、数据分析;8、数据挖掘研究院;9、S-PLUS、R统计论坛。想了解更多数据分析的相关内容,可以阅读本专题下面的文章。

534

2024.03.13

Python 数据分析处理
Python 数据分析处理

本专题聚焦 Python 在数据分析领域的应用,系统讲解 Pandas、NumPy 的数据清洗、处理、分析与统计方法,并结合数据可视化、销售分析、科研数据处理等实战案例,帮助学员掌握使用 Python 高效进行数据分析与决策支持的核心技能。

82

2025.09.08

Python 数据分析与可视化
Python 数据分析与可视化

本专题聚焦 Python 在数据分析与可视化领域的核心应用,系统讲解数据清洗、数据统计、Pandas 数据操作、NumPy 数组处理、Matplotlib 与 Seaborn 可视化技巧等内容。通过实战案例(如销售数据分析、用户行为可视化、趋势图与热力图绘制),帮助学习者掌握 从原始数据到可视化报告的完整分析能力。

60

2025.10.14

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

37

2026.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

136

2026.03.11

Go高并发任务调度与Goroutine池化实践
Go高并发任务调度与Goroutine池化实践

本专题围绕 Go 语言在高并发任务处理场景中的实践展开,系统讲解 Goroutine 调度模型、Channel 通信机制以及并发控制策略。内容包括任务队列设计、Goroutine 池化管理、资源限制控制以及并发任务的性能优化方法。通过实际案例演示,帮助开发者构建稳定高效的 Go 并发任务处理系统,提高系统在高负载环境下的处理能力与稳定性。

47

2026.03.10

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号