TF-IDF适合短文本、规则语料,计算快、可解释性强;TextRank基于图排序,更贴合语义,适合长文本与专业领域。选择取决于文本特点:重速度与复现选TF-IDF,重语义与专业性选TextRank,清洗与参数调优至关重要。

Python做文本关键词提取,常用方法是TF-IDF和TextRank——前者基于统计,适合短文本、规则语料;后者基于图排序,更贴近人类阅读逻辑,对长文本、语义连贯性要求高的场景效果更好。选哪个不绝对,关键看你的文本特点和用途。
TF-IDF关键词提取:简单高效,适合批量预处理
TF-IDF(词频-逆文档频率)衡量一个词在当前文档中的重要程度:词频高 + 在其他文档中少见 = 权重高。它不理解语义,但计算快、可解释性强,常用于搜索引擎初筛或特征工程。
- 用sklearn.feature_extraction.text.TfidfVectorizer一键向量化,再用get_feature_names_out()拿到词汇表
- 对单篇文档提取关键词,建议先fit_transform整个语料库(保证IDF准确),再取出该文档的TF-IDF向量,按值降序取top-k
- 记得清洗:小写、去停用词、过滤标点和数字(可用jieba分词+自定义停用词表,尤其中文必须先分词)
- 示例:一篇“机器学习入门教程”里,“梯度下降”“过拟合”“交叉验证”通常比“的”“是”“我们”TF-IDF值高得多
TextRank关键词提取:无监督、语义感知,适合内容摘要类任务
TextRank把词语当作节点,共现关系(如窗口内相邻)当作边,跑PageRank算法打分。它不需要训练数据,能自动发现有代表性的、上下文支撑强的词,更适合新闻、报告、论文等长文本。
- 推荐用jieba.analyse.textrank(中文)或pke库(多语言、可调参)
- 核心参数是窗口大小(默认5)和迭代次数(默认100):窗口太小漏关联,太大引入噪声;迭代不足收敛慢
- 中文务必先分词且过滤掉单字词(如“学”“模”)和低频词,否则会拉低质量
- 它倾向返回名词性短语(如“支持向量机”比“支持”得分高),天然适合关键词而非单纯高频词
实战对比与选择建议
同一段技术文档,TF-IDF可能抽出“Python”“代码”“实现”这类通用词;TextRank更可能给出“随机森林”“特征工程”“AUC评估”等专业术语——因为它看重的是词在局部上下文里的“中心性”,不是孤立频率。
立即学习“Python免费学习笔记(深入)”;
- 要速度快、可复现、配合分类/聚类用 → 选TF-IDF
- 文本较长、领域专业、希望关键词带语义组合 → 选TextRank
- 想进一步提升效果,可融合两者:用TextRank初筛,再用TF-IDF加权重排序;或用BERT等模型生成词向量后做相似度聚类
- 别跳过清洗:中文没分词=全乱套;英文注意词形还原(lemmatization)而非简单stemming
基本上就这些。两种方法都不复杂,但容易忽略清洗和参数适配。动手跑一遍,对比输出,比看十篇理论更管用。










