中文文本分类关键在数据预处理、特征选择和结果可视化三环节;需用jieba分词、权威停用词表、TfidfVectorizer向量化,搭配朴素贝叶斯与分层交叉验证,并通过混淆矩阵、指标柱状图和关键词词云诊断模型性能。

用Python做中文文本分类并可视化,关键不在代码多复杂,而在数据预处理、特征选择和结果呈现三个环节是否到位。中文不像英文有天然空格分词,直接套用英文流程会失败;可视化也不只是画个准确率柱状图,得让人一眼看出模型在哪类上强、在哪类上弱。
中文分词与文本向量化
不能跳过分词这步。jieba是最常用且对中文友好的库,停用词表建议用哈工大或百度开源的版本,别自己手写几个“的”“了”就完事。
- 安装并基础使用:red">pip install jieba,然后用 jieba.lcut(text) 得到词列表
- 去除停用词:加载停用词文件后,用列表推导式过滤,例如 [w for w in words if w not in stopwords]
- 向量化推荐 TfidfVectorizer,设 tokenizer=jieba.lcut 和 token_pattern=None,避免正则干扰中文切分
- 注意 max_features 别设太大(比如5000以内),否则稀疏矩阵爆炸,训练慢还容易过拟合
模型训练与交叉验证
中文短文本(如新闻标题、评论)特征稀疏,朴素贝叶斯(MultinomialNB)往往比BERT微调更稳、更快,适合入门和 baseline 对比。
- 用 sklearn.model_selection.StratifiedKFold 做分层K折,保证每类样本在每折里比例一致
- 训练时用 cross_val_score 直接返回各折准确率,顺便算标准差看稳定性
- 别只看整体准确率——加一句 classification_report(y_true, y_pred),看清每类的precision/recall/f1
- 如果某类f1特别低(比如“娱乐”类召回只有0.4),大概率是该类样本少或关键词太泛,得回头检查数据分布
分类结果可视化:不只是画图
可视化目标是帮人快速诊断问题,不是炫技。重点展示三类图:混淆矩阵热力图、各类指标柱状图、关键词权重词云(可选)。
Android应用程序是通过消息来驱动的,系统为每一个应用程序维护一个消息队例,应用程序的主线程不断地从这个消息队例中获取消息(Looper),然后对这些消息进行处理(Handler),这样就实现了通过消息来驱动应用程序的执行,本文将详细分析Android应用程序的消息处理机制。有需要的朋友可以下载看看
立即学习“Python免费学习笔记(深入)”;
- 混淆矩阵用 seaborn.heatmap(confusion_matrix(y_true, y_pred), annot=True, fmt='d'),加 xticklabels 和 yticklabels 显示类别名
- 把 classification_report 输出转成 DataFrame,用 matplotlib.barh() 横向画 precision/recall/f1,三组并排更易对比
- 想看模型“怎么看”的?用 TfidfVectorizer.get_feature_names_out() + 模型 coef_ 提取每类最重要的20个词,再用 wordcloud 生成词云(注意中文字体路径要指定)
完整流程小提示
跑通一次不难,但实际中容易卡在编码、路径、字体这些细节上。
- 读CSV务必加 encoding='utf-8-sig',防Windows记事本BOM头乱码
- 保存图片用 plt.savefig('xxx.png', bbox_inches='tight'),避免标签被截
- 中文显示不出?在绘图前加两行:plt.rcParams['font.sans-serif'] = ['SimHei', 'Arial Unicode MS'] 和 plt.rcParams['axes.unicode_minus'] = False
- 数据量小(
基本上就这些。不复杂但容易忽略——分词干净、向量合理、评估全面、图说清楚,中文文本分类的可视化分析就能真正帮上忙。









