0

0

自定义CountVectorizer分词器:处理带符号数字的文本特征提取

碧海醫心

碧海醫心

发布时间:2025-12-09 17:23:01

|

779人浏览过

|

来源于php中文网

原创

自定义countvectorizer分词器:处理带符号数字的文本特征提取

本教程详细介绍了Python CountVectorizer在进行文本特征提取时,默认忽略数字前正负号的问题及其解决方案。通过实现一个自定义分词器,结合正则表达式精确捕获带符号的数字作为独立词元,可以确保 CountVectorizer正确识别并保留这些关键信息,从而生成包含完整符号的特征矩阵。

引言:CountVectorizer与符号数字识别挑战

自然语言处理(NLP)中,Bag-of-Words (BOW) 模型是一种常用的文本表示方法,它将文本视为一个词袋,忽略词序,只关注词的出现频率。sklearn.feature_extraction.text.CountVectorizer 是Python中实现BOW模型的核心工具。它能够将文本文档集合转换为词频矩阵。然而,当处理包含正负号的数字字符串时,CountVectorizer 的默认行为可能会导致信息丢失。

例如,考虑以下数据框:

RepID, Txt
1, +83 -193 -380 +55 +901
2, -94 +44 +2892 -60
3, +7010 -3840 +3993

其中 Txt 字段包含了一系列带符号的数字。如果直接使用 CountVectorizer 进行处理,其默认的分词器通常会忽略非字母数字字符(如 + 和 -),导致生成的特征名称(列名)中丢失这些符号。这意味着 +83 和 83 将被视为同一个词元,这在某些应用场景下是不可接受的。我们期望的输出是能区分 +83 和 -193 等带符号的数字作为独立的特征。

理解分词(Tokenization)

分词是文本处理的第一步,它将连续的文本分解成有意义的最小单元,即词元(tokens)。CountVectorizer 内部有一个 tokenizer 参数,它决定了如何将输入文本字符串分割成词元列表。默认情况下,CountVectorizer 使用一个简单的正则表达式来提取词元,该正则表达式通常只匹配字母数字序列。这就是为什么 + 和 - 符号会被忽略的原因,因为它们不被认为是词元的一部分。

为了解决符号丢失的问题,我们需要提供一个自定义的分词器,它能够识别并保留数字前的正负号。

解决方案:实现自定义分词器

自定义分词器的核心在于使用正则表达式精确地捕获我们希望保留的词元。对于带符号的数字,我们需要确保正负号与数字一起被视为一个整体。

我们将使用Python的 re 模块来构建这个自定义分词器。关键在于 re.split() 函数和合适的正则表达式。

LongShot
LongShot

LongShot 是一款 AI 写作助手,可帮助您生成针对搜索引擎优化的内容博客。

下载

custom_tokenizer 函数详解

import re

def custom_tokenizer(text):
    # 使用正则表达式分割文本,同时捕获带符号的数字
    # ([+-]?\d+):
    #   [+-]? 匹配一个可选的 '+' 或 '-' 符号
    #   \d+ 匹配一个或多个数字
    # 括号 () 创建一个捕获组,确保匹配到的符号和数字作为一个整体被保留
    tokens = [token.strip() for token in re.split('([+-]?\d+)', text) if token.strip()]
    return tokens

正则表达式 ([+-]?\d+) 解析:

  • [+-]?: 这是一个字符集,匹配 + 或 - 字符。? 表示前面的字符(在这里是 [+-])出现零次或一次,即符号是可选的。
  • \d+: 匹配一个或多个数字字符(0-9)。
  • (): 这是一个捕获组。在 re.split() 中,如果正则表达式包含捕获组,那么被捕获的内容也会作为结果列表的一部分返回。这正是我们需要的,它确保 + 或 - 与后面的数字一起被捕获为一个词元。

re.split() 函数会根据正则表达式将字符串分割,并且如果正则表达式中包含捕获组,则捕获到的内容也会包含在结果列表中。最后,我们使用列表推导式 [token.strip() for token in ... if token.strip()] 来清理结果,移除可能产生的空字符串。

整合自定义分词器到CountVectorizer

创建了 custom_tokenizer 后,我们只需将其作为参数传递给 CountVectorizer 的 tokenizer 参数即可。

from sklearn.feature_extraction.text import CountVectorizer
import pandas as pd
import numpy as np

def BOW(df_column):
  # 初始化 CountVectorizer,传入自定义分词器
  CountVec = CountVectorizer(tokenizer=custom_tokenizer)
  # 对指定列进行拟合和转换
  Count_data = CountVec.fit_transform(df_column)
  Count_data = Count_data.astype(np.uint8)
  # 创建DataFrame,列名为 CountVectorizer 提取的特征名
  cv_dataframe = pd.DataFrame(Count_data.toarray(), columns=CountVec.get_feature_names_out(), index=df_column.index)
  return cv_dataframe.astype(np.uint8)

注意点:

  • CountVectorizer(tokenizer=custom_tokenizer):这是关键一步,将我们定义的分词函数传递给 CountVectorizer。
  • Count_data = CountVec.fit_transform(df_column):这里假设 df_column 是一个包含文本数据的 Pandas Series(例如 df['Txt'])。
  • CountVec.get_feature_names_out():这个方法将返回所有识别到的词元,它们将作为结果DataFrame的列名。由于我们使用了自定义分词器,这些列名将包含符号。

完整代码示例与验证

下面是一个完整的示例,展示如何应用自定义分词器来解决 CountVectorizer 忽略符号的问题。

import re
import pandas as pd
import numpy as np
from sklearn.feature_extraction.text import CountVectorizer

# 1. 定义自定义分词器
def custom_tokenizer(text):
    """
    自定义分词器,用于将文本分割成词元,同时保留带符号的数字。
    """
    # 使用正则表达式分割文本,同时捕获带符号的数字
    # ([+-]?\d+) 匹配一个可选的正负号后跟一个或多个数字
    tokens = [token.strip() for token in re.split('([+-]?\d+)', text) if token.strip()]
    return tokens

# 2. 定义 Bag-of-Words (BOW) 函数
def BOW(df_text_column):
    """
    使用自定义分词器生成文本的词袋模型DataFrame。

    参数:
    df_text_column (pd.Series): 包含文本数据的Pandas Series。

    返回:
    pd.DataFrame: 词频矩阵,列名为带符号的数字词元。
    """
    # 初始化 CountVectorizer,传入自定义分词器
    CountVec = CountVectorizer(tokenizer=custom_tokenizer)
    # 对文本列进行拟合和转换
    Count_data = CountVec.fit_transform(df_text_column)
    # 将结果转换为 uint8 类型以节省内存
    Count_data = Count_data.astype(np.uint8)
    # 创建DataFrame,列名为 CountVectorizer 提取的特征名
    cv_dataframe = pd.DataFrame(Count_data.toarray(), 
                                columns=CountVec.get_feature_names_out(), 
                                index=df_text_column.index)
    return cv_dataframe.astype(np.uint8)

# 3. 测试 BOW 函数
if __name__ == "__main__":
    # 示例数据
    data = {'RepID': [1, 2, 3],
            'Txt': ['+83 -193 -380 +55 +901', '-94 +44 +2892 -60', '+7010 -3840 +3993']}
    df = pd.DataFrame(data)

    print("原始数据框:")
    print(df)
    print("\n" + "="*50 + "\n")

    # 调用 BOW 函数处理 'Txt' 列
    result_df = BOW(df['Txt'])

    print("使用自定义分词器后的词袋模型结果:")
    print(result_df)

    # 预期输出与对比
    print("\n" + "="*50 + "\n")
    print("期望的列名应包含符号,例如:+83, -193, -380, +55, +901 等。")
    print("实际输出的列名:", result_df.columns.tolist())

运行上述代码,您会看到 result_df 的列名正确地包含了 + 或 - 符号,例如 +83, -193, -380 等,这正是我们期望的结果。

注意事项与总结

  • 灵活性: 自定义分词器是 CountVectorizer 强大的一个方面,它允许用户根据具体的文本处理需求,灵活地定义如何将文本分割成词元。
  • 正则表达式的威力: re 模块和正则表达式是处理复杂文本模式匹配和提取的利器。理解并掌握常用的正则表达式语法对于文本预处理至关重要。
  • 性能考量: 复杂的自定义分词器可能会比 CountVectorizer 的默认分词器慢。在处理海量数据时,需要权衡灵活性和性能。
  • 应用场景: 本教程中解决的问题在处理日志文件、金融交易数据、科学测量数据等场景中非常常见,这些场景中数字的正负号具有重要的语义信息。

通过本文,我们学习了 CountVectorizer 默认分词机制的局限性,以及如何通过实现和集成自定义分词器来解决在文本特征提取过程中符号丢失的问题。这种方法不仅限于处理带符号的数字,还可以扩展到处理其他任何需要特殊分词规则的文本数据。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
js正则表达式
js正则表达式

php中文网为大家提供各种js正则表达式语法大全以及各种js正则表达式使用的方法,还有更多js正则表达式的相关文章、相关下载、相关课程,供大家免费下载体验。

514

2023.06.20

正则表达式不包含
正则表达式不包含

正则表达式,又称规则表达式,,是一种文本模式,包括普通字符和特殊字符,是计算机科学的一个概念。正则表达式使用单个字符串来描述、匹配一系列匹配某个句法规则的字符串,通常被用来检索、替换那些符合某个模式的文本。php中文网给大家带来了有关正则表达式的相关教程以及文章,希望对大家能有所帮助。

251

2023.07.05

java正则表达式语法
java正则表达式语法

java正则表达式语法是一种模式匹配工具,它非常有用,可以在处理文本和字符串时快速地查找、替换、验证和提取特定的模式和数据。本专题提供java正则表达式语法的相关文章、下载和专题,供大家免费下载体验。

746

2023.07.05

java正则表达式匹配字符串
java正则表达式匹配字符串

在Java中,我们可以使用正则表达式来匹配字符串。本专题为大家带来java正则表达式匹配字符串的相关内容,帮助大家解决问题。

215

2023.08.11

正则表达式空格
正则表达式空格

正则表达式空格可以用“s”来表示,它是一个特殊的元字符,用于匹配任意空白字符,包括空格、制表符、换行符等。本专题为大家提供正则表达式相关的文章、下载、课程内容,供大家免费下载体验。

351

2023.08.31

Python爬虫获取数据的方法
Python爬虫获取数据的方法

Python爬虫可以通过请求库发送HTTP请求、解析库解析HTML、正则表达式提取数据,或使用数据抓取框架来获取数据。更多关于Python爬虫相关知识。详情阅读本专题下面的文章。php中文网欢迎大家前来学习。

293

2023.11.13

正则表达式空格如何表示
正则表达式空格如何表示

正则表达式空格可以用“s”来表示,它是一个特殊的元字符,用于匹配任意空白字符,包括空格、制表符、换行符等。想了解更多正则表达式空格怎么表示的内容,可以访问下面的文章。

236

2023.11.17

正则表达式中如何匹配数字
正则表达式中如何匹配数字

正则表达式中可以通过匹配单个数字、匹配多个数字、匹配固定长度的数字、匹配整数和小数、匹配负数和匹配科学计数法表示的数字的方法匹配数字。更多关于正则表达式的相关知识详情请看本专题下面的文章。php中文网欢迎大家前来学习。

532

2023.12.06

java入门学习合集
java入门学习合集

本专题整合了java入门学习指南、初学者项目实战、入门到精通等等内容,阅读专题下面的文章了解更多详细学习方法。

1

2026.01.29

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.4万人学习

Django 教程
Django 教程

共28课时 | 3.7万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号