
本文手把手教你构建、训练并推理一个仅含单层线性变换的 mlp 模型,使其从随机数据中自主学习加法函数 $ y = x_1 + x_2 $,涵盖完整训练流程、预测调用方法、结果验证与关键注意事项。
本文手把手教你构建、训练并推理一个仅含单层线性变换的 mlp 模型,使其从随机数据中自主学习加法函数 $ y = x_1 + x_2 $,涵盖完整训练流程、预测调用方法、结果验证与关键注意事项。
在深度学习入门实践中,“让神经网络学会加法”是一个经典而富有启发性的任务——它看似简单,却能清晰揭示模型拟合本质、优化行为与泛化能力。值得注意的是,加法是线性函数,因此无需复杂网络结构:一个单层线性模型 nn.Linear(2, 1) 已具备充分表达能力。
以下是一个完整、可运行的 PyTorch 教程实现:
import torch
import torch.nn as nn
import torch.optim as optim
torch.manual_seed(42)
# 数据配置
N = 1000 # 样本数
D = 2 # 输入维度(两个加数)
C = 1 # 输出维度(和)
lr = 1e-1 # 学习率(实测 1e-1 比 1e-2 收敛更快更稳)
# 生成训练数据:X ∈ [0,1)²,y = x₁ + x₂
X = torch.rand(N, D)
y = X.sum(dim=1, keepdim=True) # shape: (N, 1)
print(f"X.shape: {X.shape}, y.shape: {y.shape}")
print(f"X[:5]:\n{X[:5]}")
print(f"y[:5]:\n{y[:5]}")
# 构建模型:单层线性变换(即 y = w₁x₁ + w₂x₂ + b)
model = nn.Sequential(nn.Linear(D, C))
criterion = nn.MSELoss()
optimizer = optim.Adam(model.parameters(), lr=lr)
# 训练循环
print("\n? 开始训练...")
for epoch in range(500):
optimizer.zero_grad() # 清空梯度
y_pred = model(X) # 前向传播
loss = criterion(y_pred, y) # 计算 MSE 损失
loss.backward() # 反向传播
optimizer.step() # 参数更新
if epoch % 50 == 0:
print(f"Epoch {epoch+1:3d} | Loss: {loss.item():.2e}")
# ✅ 验证模型泛化能力:对全新随机样本进行预测
print("\n? 测试泛化性能(5 组未见数据):")
with torch.no_grad(): # 推理阶段禁用梯度,节省内存并加速
for _ in range(5):
x_test = torch.rand(1, D) # 新样本:[x₁, x₂]
y_true = x_test.sum().item() # 真实和
y_pred = model(x_test).item() # 模型预测
print(f"{x_test[0, 0]:.2f} + {x_test[0, 1]:.2f} = {y_true:.2f} → 预测: {y_pred:.2f}")
# ? 检查学得参数(核心洞察!)
state_dict = model.state_dict()
print(f"\n? 模型学得的参数:")
print(f"权重 w = {state_dict['0.weight'].flatten().tolist()}") # 应趋近 [1.0, 1.0]
print(f"偏置 b = {state_dict['0.bias'].item():.2e}") # 应趋近 0关键说明与注意事项
预测 ≠ 生成:你原代码中误用了 model.generate(...) —— PyTorch 的 nn.Module 没有 .generate() 方法。正确做法是直接调用 model(input_tensor) 进行前向推理,如 model(x_test)。所谓“生成”在此任务中即“给定输入,输出预测值”。
为什么单层足够? 加法是线性操作,而 nn.Linear(2, 1) 表达式为 $ y = w_1 x_1 + w_2 x_2 + b $。理想解为 $ w_1 = w_2 = 1, b = 0 $。训练过程本质上是在最小化 MSE 下逼近该解,最终权重会高度收敛至 [1., 1.],偏置接近机器精度零(如 2.37e-09),印证模型真正“学会”了加法逻辑。
学习率敏感性:将学习率从 1e-2 提升至 1e-1 显著加快收敛(见输出中损失从 1e0 快速降至 1e-20)。过小的学习率会导致训练缓慢甚至停滞;过大则可能震荡不收敛。建议初学者在简单任务中尝试 1e-1 ~ 1e-2 区间。
推理务必使用 torch.no_grad():在测试/部署阶段禁用梯度计算,可减少内存占用、提升速度,并避免意外修改模型参数。
泛化验证不可少:训练集上的低损失不等于模型真正掌握规律。务必用独立生成的新样本(非训练集切片)验证预测准确性——本例中所有预测误差均小于 1e-6,证明模型具备强泛化能力。
通过这个极简但完整的案例,你不仅掌握了 MLP 的基础训练范式,更理解了“神经网络拟合函数”的本质:它不是记忆,而是参数空间中的优化搜索。下一步,你可以尝试扩展任务——例如学习乘法(需引入非线性)、三位数加法(需缩放输入)或带噪声的数据鲁棒训练,从而平滑过渡到更复杂的建模范式。










