0

0

Python中实现自定义Bag-of-Words模型:处理带负向计数的词汇

聖光之護

聖光之護

发布时间:2025-11-27 13:56:06

|

404人浏览过

|

来源于php中文网

原创

Python中实现自定义Bag-of-Words模型:处理带负向计数的词汇

本文将介绍如何在python中实现一个自定义的bag-of-words(bow)模型,以处理包含特殊前缀(如连字符“-”)的词汇。针对传统bow模型将带前缀词汇视为独立特征的问题,本教程将展示如何通过定制化解析逻辑,将这些词汇计为基础词汇的负向出现次数,从而生成更符合特定业务逻辑的特征向量。

1. 理解传统Bag-of-Words模型的局限性

Bag-of-Words (BOW) 模型是自然语言处理中一种常用的文本表示方法,它将文本视为词汇的无序集合,并统计每个词汇在文档中出现的频率。这种模型简单高效,广泛应用于文本分类、情感分析等任务。然而,在某些特定场景下,我们可能需要对词汇的计数方式进行特殊处理。

例如,在一个包含科学术语或特定编码的文档集中,我们可能会遇到形如 Q207KL41 和 -Q207KL41 的词汇。如果 Q207KL41 表示一个正向概念或出现,而 -Q207KL41 表示其负向或缺失,那么在构建特征时,我们期望的是将 -Q207KL41 计为 Q207KL41 的负一次出现,而不是将其作为一个全新的、独立的特征。

标准的 sklearn.feature_extraction.text.CountVectorizer 在处理这类情况时,会默认将 -Q207KL41 和 Q207KL41 识别为两个不同的词元(token),并在特征向量中为它们分别创建列。例如,如果文档中包含 Q207KL41 -Q207KL41 -Q207KL41,CountVectorizer 可能会为 Q207KL41 计数1,为 -Q207KL41 计数2。这与我们期望的 Q207KL41 总计数为 1 - 1 - 1 = -1 的目标不符。为了实现这种带有“负向计数”的BOW模型,我们需要编写一个自定义的向量化函数。

2. 自定义Bag-of-Words向量化方法的实现

为了解决传统 CountVectorizer 的局限性,我们可以构建一个自定义函数来替代它。这个函数的核心逻辑在于:遍历文档中的每个词元,判断其是否以特定前缀(例如连字符“-”)开头。如果存在,则移除前缀,并将该词元的计数符号设为负;否则,计数符号为正。所有处理后的词元都将映射到同一个词汇表中的对应项,并累加其带符号的计数。

立即学习Python免费学习笔记(深入)”;

以下是实现该自定义BOW模型的Python代码示例:

AssemblyAI
AssemblyAI

转录和理解语音的AI模型

下载
import io
import pandas as pd
import numpy as np
from collections import defaultdict

def custom_bow_vectorizer(documents: pd.Series) -> pd.DataFrame:
    """
    自定义Bag-of-Words向量化函数,支持处理带负号前缀的词汇。

    参数:
        documents (pd.Series): 包含待处理文本的Pandas Series。

    返回:
        pd.DataFrame: 包含自定义Bag-of-Words特征的DataFrame。
    """
    processed_features = []
    # 使用defaultdict来动态构建词汇表,并为每个新词汇分配一个唯一的索引
    # vocabulary.default_factory = vocabulary.__len__ 使得每次访问不存在的key时,
    # 自动增加并返回当前词汇表的大小作为新词汇的索引。
    vocabulary = defaultdict()
    vocabulary.default_factory = vocabulary.__len__ 

    for document_text in documents:
        feature_counter = defaultdict(int) # 存储当前文档的词汇计数

        # 处理非字符串类型数据,例如NaN,将其视为空字符串
        if not isinstance(document_text, str):
            document_text = ""

        for token in document_text.split():
            sign = 1
            base_token = token
            # 检查词元是否以负号开头
            if base_token.startswith("-"):
                base_token = base_token[1:] # 移除负号前缀
                sign = -1 # 设置为负向计数

            # 将词元映射到词汇表中的索引,并更新计数
            # 如果base_token是空字符串(例如,原始token只有'-'),则跳过
            if base_token:
                feature_idx = vocabulary[base_token]
                feature_counter[feature_idx] += sign
        processed_features.append(feature_counter)

    # 将所有文档的计数结果转换为DataFrame
    # from_records 会自动处理不同文档具有不同词汇的情况,用NaN填充
    df = pd.DataFrame.from_records(processed_features)
    df = df.fillna(0) # 将NaN填充为0

    # 确保列的顺序是基于词汇表索引的,并映射回词汇字符串作为列名
    # 创建一个反向映射,从索引到词汇
    idx_to_word = {v: k for k, v in vocabulary.items()}
    # 按照词汇表的索引顺序获取词汇,以确保DataFrame列的稳定顺序
    ordered_columns = [idx_to_word[i] for i in sorted(vocabulary.values())]

    # 重排DataFrame的列,使其与词汇表顺序一致
    df = df[ordered_columns]

    # 优化内存使用,如果计数范围不大(-128到127之间),使用int8
    df = df.astype(np.int8) 
    return df

# 示例数据
s = """
RepID,Txt
1,K9G3P9 4H477 -Q207KL41 98464 Q207KL41
2,D84T8X4 -D9W4S2 -D9W4S2 8E8E65 D9W4S2 
3,-05L8NJ38 K2DD949 0W28DZ48 207441 K2D28K84"""
df_reps = pd.read_csv(io.StringIO(s))

# 应用自定义向量化函数
result_df = custom_bow_vectorizer(df_reps["Txt"])
print(result_df)

输出结果:

   K9G3P9  4H477  Q207KL41  98464  D84T8X4  D9W4S2  8E8E65  05L8NJ38  K2DD949  0W28DZ48  207441  K2D28K84
0       1      1         0      1        0       0       0         0        0         0       0         0
1       0      0         0      0        1      -1       1         0        0         0       0         0
2       0      0         0      0        0       0       0        -1        1         1       1         1

从输出可以看出,对于第一行文本 K9G3P9 4H477 -Q207KL41 98464 Q207KL41,词汇 Q207KL41 出现了两次(一次正向,一次负向),最终计数为 1 + (-1) = 0。对于第二行文本 D84T8X4 -D9W4S2 -D9W4S2 8E8E65 D9W4S2,词汇 D9W4S2 出现一次正向,两次负向,最终计数为 1 + (-1) + (-1) = -1。这完全符合我们的预期。

3. 代码解析与注意事项

3.1 代码解析

  1. 导入必要的库:

    • pandas 用于数据处理,特别是将结果组织成DataFrame。
    • numpy 用于数值操作和类型转换,如 np.int8。
    • collections.defaultdict 用于高效地构建词汇计数器和动态词汇表。
  2. custom_bow_vectorizer 函数:

    • processed_features 列表:用于存储每个文档的词汇计数结果(以字典形式)。
    • vocabulary = defaultdict(): 创建一个动态词汇表。vocabulary.default_factory = vocabulary.__len__ 这一行是关键。它使得每次访问一个新词汇(即该词汇不在 vocabulary 中)时,defaultdict 会自动为这个新词汇分配一个递增的整数作为其值(索引),并且这个值是当前词汇表的大小。
    • 遍历文档: 对 documents Series 中的每一行文本进行处理。
    • 处理空文档/非字符串数据: if not isinstance(document_text, str): document_text = "" 确保文本是字符串类型,避免 split() 方法在遇到 NaN 或其他非字符串数据时报错。
    • 遍历词元: 使用 document_text.split() 将文本分割成词元。默认按空格分割。
    • 判断负号前缀: 检查 token 是否以 "-" 开头。如果是,则将 sign 设为 -1,并移除 token 的前缀以获取 base_token;否则,sign 保持 1。
    • 更新计数: feature_counter[vocabulary[base_token]] += sign 将 base_token 映射到其在 vocabulary 中的索引,并根据 sign 更新其在当前文档中的计数。
    • 构建DataFrame: pd.DataFrame.from_records(processed_features) 将所有文档的计数字典列表转换为一个DataFrame。由于不同文档可能包含不同的词汇,from_records 会自动处理缺失值,用 NaN 填充。
    • 填充缺失值: df.fillna(0) 将所有 NaN 替换为 0,表示该词汇在该文档中未出现。
    • 列名映射与排序: 为了使输出DataFrame的列名清晰且有序,我们根据 vocabulary 重新构建列的顺序。idx_to_word 字典用于将词汇索引映射回词汇字符串,然后根据索引排序来确保列的顺序一致性。
    • 数据类型优化: df.astype(np.int8) 将DataFrame中的数据类型转换为 int8。如果词汇计数不会超出 [-128, 127] 的范围,这可以显著节省内存,对于大型文本数据集尤其重要。

3.2 注意事项

  1. 灵活性与定制性: 这种自定义方法提供了极大的灵活性,可以根据具体需求轻松调整词元化(tokenization)规则、前缀处理逻辑或其他计数策略。例如,可以扩展以处理其他特殊符号、组合词或更复杂的语义规则。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

81

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

34

2026.01.31

数据类型有哪几种
数据类型有哪几种

数据类型有整型、浮点型、字符型、字符串型、布尔型、数组、结构体和枚举等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

338

2023.10.31

php数据类型
php数据类型

本专题整合了php数据类型相关内容,阅读专题下面的文章了解更多详细内容。

225

2025.10.31

c语言 数据类型
c语言 数据类型

本专题整合了c语言数据类型相关内容,阅读专题下面的文章了解更多详细内容。

138

2026.02.12

if什么意思
if什么意思

if的意思是“如果”的条件。它是一个用于引导条件语句的关键词,用于根据特定条件的真假情况来执行不同的代码块。本专题提供if什么意思的相关文章,供大家免费阅读。

847

2023.08.22

登录token无效
登录token无效

登录token无效解决方法:1、检查token的有效期限,如果token已经过期,需要重新获取一个新的token;2、检查token的签名,如果签名不正确,需要重新获取一个新的token;3、检查密钥的正确性,如果密钥不正确,需要重新获取一个新的token;4、使用HTTPS协议传输token,建议使用HTTPS协议进行传输 ;5、使用双因素认证,双因素认证可以提高账户的安全性。

6654

2023.09.14

登录token无效怎么办
登录token无效怎么办

登录token无效的解决办法有检查Token是否过期、检查Token是否正确、检查Token是否被篡改、检查Token是否与用户匹配、清除缓存或Cookie、检查网络连接和服务器状态、重新登录或请求新的Token、联系技术支持或开发人员等。本专题为大家提供token相关的文章、下载、课程内容,供大家免费下载体验。

843

2023.09.14

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

49

2026.03.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号