0

0

PyTorch二分类模型精度计算陷阱解析与跨框架对比实践

DDD

DDD

发布时间:2025-10-06 14:03:15

|

797人浏览过

|

来源于php中文网

原创

PyTorch二分类模型精度计算陷阱解析与跨框架对比实践

本文深入探讨了PyTorch二分类模型在精度计算时可能遇到的常见陷阱,特别是当与TensorFlow的评估结果进行对比时出现的显著差异。通过分析一个具体的案例,文章揭示了PyTorch中一个易被忽视的精度计算错误,并提供了正确的实现方式,旨在帮助开发者避免此类问题,确保模型评估的准确性和一致性。

1. 问题现象:PyTorch与TensorFlow的精度差异

深度学习模型开发过程中,开发者常会遇到在不同框架下实现相似模型时,评估指标出现显著差异的情况。一个典型的二分类问题中,我们观察到以下现象:使用pytorch实现的模型在测试集上仅获得约2.5%的精度,而结构和配置几乎相同的tensorflow模型却能达到约86%的精度。这种巨大的差异通常不是由模型性能本身引起,而是暗示了其中一个框架的评估逻辑可能存在根本性错误。

2. 模型结构与训练配置概览

为了更好地理解问题,我们首先审视两个框架中模型的结构和训练配置。

2.1 PyTorch模型与训练设置

PyTorch模型是一个简单的多层感知机(MLP),包含两个ReLU激活的隐藏层和一个Sigmoid激活的输出层,适用于二分类任务。

import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import DataLoader, TensorDataset
from sklearn.model_selection import train_test_split
import pandas as pd
import numpy as np

# 假设数据加载和预处理已完成
# data = pd.read_csv('your_data.csv')
# train, test = train_test_split(data, test_size=0.056, random_state=42)
# train_X_np = train[["A","B","C", "D"]].to_numpy()
# test_X_np = test[["A","B", "C", "D"]].to_numpy()
# train_Y_np = train[["label"]].to_numpy()
# test_Y_np = test[["label"]].to_numpy()

# train_X = torch.tensor(train_X_np, dtype=torch.float32)
# test_X = torch.tensor(test_X_np, dtype=torch.float32)
# train_Y = torch.tensor(train_Y_np, dtype=torch.float32)
# test_Y = torch.tensor(test_Y_np, dtype=torch.float32)

# train_dataset = TensorDataset(train_X, train_Y)
# batch_size = 64
# train_dataloader = DataLoader(train_dataset, batch_size=batch_size, shuffle=True)

class SimpleClassifier(nn.Module):
    def __init__(self, input_size, hidden_size1, hidden_size2, output_size):
        super(SimpleClassifier, self).__init__()
        self.fc1 = nn.Linear(input_size, hidden_size1)
        self.relu1 = nn.ReLU()
        self.fc2 = nn.Linear(hidden_size1, hidden_size2)
        self.relu2 = nn.ReLU()
        self.fc3 = nn.Linear(hidden_size2, output_size)
        self.sigmoid = nn.Sigmoid()

    def forward(self, x):
        x = self.relu1(self.fc1(x))
        x = self.relu2(self.fc2(x))
        x = self.sigmoid(self.fc3(x))
        return x

# input_size = train_X.shape[1]
# hidden_size1 = 64
# hidden_size2 = 32
# output_size = 1
# model = SimpleClassifier(input_size, hidden_size1, hidden_size2, output_size)

# criterion = nn.BCELoss()
# optimizer = optim.Adam(model.parameters(), lr=0.001)

# # 原始PyTorch训练循环中的评估部分(存在错误)
# num_epochs = 50
# for epoch in range(num_epochs):
#     # ... (训练代码略)
#     with torch.no_grad():
#         model.eval()
#         predictions = model(test_X).squeeze()
#         predictions_binary = (predictions.round()).float()
#         accuracy = torch.sum(predictions_binary == test_Y) / (len(test_Y) * 100) # 错误在此行
#         if(epoch%25 == 0):
#           print("Epoch " + str(epoch) + " passed. Test accuracy is {:.2f}%".format(accuracy))

PyTorch模型使用nn.BCELoss作为损失函数,optim.Adam作为优化器。问题主要出现在评估阶段的精度计算逻辑。

2.2 TensorFlow模型与训练设置

TensorFlow模型同样使用Keras的Sequential API构建了一个相似的MLP结构。

from tensorflow.keras.models import Sequential
from tensorflow.keras.layers import Dense
# import numpy as np # 假设 train_X, train_Y, test_X, test_Y 已经准备好为 numpy 数组

# # 假设数据加载和预处理已完成
# # model_tf = Sequential()
# # model_tf.add(Dense(64, input_dim=len(train_X[0]), activation='relu'))
# # model_tf.add(Dense(32, activation='relu'))
# # model_tf.add(Dense(1, activation='sigmoid'))

# # Compile the model
# # model_tf.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])

# # model_tf.fit(train_X, train_Y, epochs=50, batch_size=64, verbose=0)

# # Evaluate the model
# # loss_tf, accuracy_tf = model_tf.evaluate(test_X, test_Y, verbose=0)
# # print(f"Loss: {loss_tf}, Accuracy: {accuracy_tf}")

TensorFlow模型在编译时直接指定了metrics=['accuracy'],这使得其在训练和评估时能够自动计算并报告正确的精度。

通过对比可以看出,两个框架的模型结构、损失函数和优化器选择都非常相似,主要的差异在于PyTorch的精度计算是手动实现,而TensorFlow则使用了内置的可靠指标。

Onu
Onu

将脚本转换为内部工具,不需要前端代码。

下载

3. PyTorch精度计算的症结所在

问题的核心在于PyTorch评估代码中的精度计算方式。

3.1 错误代码分析

原始PyTorch代码中的精度计算如下:

accuracy = torch.sum(predictions_binary == test_Y) / (len(test_Y) * 100)

让我们逐步分析这行代码:

  1. predictions_binary == test_Y:这是一个布尔张量,表示每个预测是否与真实标签匹配。
  2. torch.sum(...):计算布尔张量中 True 的数量,即正确分类的样本数。
  3. len(test_Y):获取测试集中的总样本数。
  4. (len(test_Y) * 100):这是问题的关键所在。分母被错误地乘以了100。

正确的精度计算逻辑应该是:(正确分类样本数 / 总样本数) * 100%。 例如,如果有86个正确预测和100个总样本,实际精度应为 (86 / 100) * 100% = 86%。 然而,原始代码的计算是 (86 / (100 * 100)),即 86 / 10000 = 0.0086。如果再将其格式化为百分比,就会显示为 0.86%,或者在某些情况下,如果期望输出的是0-100的数值,则会是 0.86,与86%相去甚远。原始代码中 format("{:.2f}%".format(accuracy)) 会将 0.0086 格式化为 0.86%,而不是 86.00%。 因此,PyTorch代码中2.5%的低精度实际上是由于计算公式中分母多乘了一个100,导致最终结果被额外缩小了100倍。

3.2 正确的精度计算方法

为了获得正确的百分比精度,我们需要修正计算公式:

# 假设 predictions_binary 是模型输出经过 Sigmoid 后,再四舍五入得到的二值预测 (0或1)
# 假设 test_Y 是真实的二值标签 (0或1)

# 计算正确预测的数量
correct_predictions = (predictions_binary == test_Y).sum().item()

# 获取总样本数
total_samples = test_Y.size(0) # 或者 len(test_Y)

# 计算精度(0-100

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

740

2023.07.31

python中的format是什么意思
python中的format是什么意思

python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

432

2024.06.27

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

740

2023.07.31

python中的format是什么意思
python中的format是什么意思

python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

432

2024.06.27

Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习
Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习

PyTorch 是一种用于构建深度学习模型的功能完备框架,是一种通常用于图像识别和语言处理等应用程序的机器学习。 使用Python 编写,因此对于大多数机器学习开发者而言,学习和使用起来相对简单。 PyTorch 的独特之处在于,它完全支持GPU,并且使用反向模式自动微分技术,因此可以动态修改计算图形。

24

2025.12.22

Python 深度学习框架与TensorFlow入门
Python 深度学习框架与TensorFlow入门

本专题深入讲解 Python 在深度学习与人工智能领域的应用,包括使用 TensorFlow 搭建神经网络模型、卷积神经网络(CNN)、循环神经网络(RNN)、数据预处理、模型优化与训练技巧。通过实战项目(如图像识别与文本生成),帮助学习者掌握 如何使用 TensorFlow 开发高效的深度学习模型,并将其应用于实际的 AI 问题中。

43

2026.01.07

pytorch是干嘛的
pytorch是干嘛的

pytorch是一个基于python的深度学习框架,提供以下主要功能:动态图计算,提供灵活性。强大的张量操作,实现高效处理。自动微分,简化梯度计算。预构建的神经网络模块,简化模型构建。各种优化器,用于性能优化。想了解更多pytorch的相关内容,可以阅读本专题下面的文章。

432

2024.05.29

Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习
Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习

PyTorch 是一种用于构建深度学习模型的功能完备框架,是一种通常用于图像识别和语言处理等应用程序的机器学习。 使用Python 编写,因此对于大多数机器学习开发者而言,学习和使用起来相对简单。 PyTorch 的独特之处在于,它完全支持GPU,并且使用反向模式自动微分技术,因此可以动态修改计算图形。

24

2025.12.22

拼多多赚钱的5种方法 拼多多赚钱的5种方法
拼多多赚钱的5种方法 拼多多赚钱的5种方法

在拼多多上赚钱主要可以通过无货源模式一件代发、精细化运营特色店铺、参与官方高流量活动、利用拼团机制社交裂变,以及成为多多进宝推广员这5种方法实现。核心策略在于通过低成本、高效率的供应链管理与营销,利用平台社交电商红利实现盈利。

31

2026.01.26

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 0.9万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号