
本文介绍使用pandas对大规模结构化文本数据(如含“~”分隔的多值字段)进行高效频次统计的方法,通过`str.split`和`explode`展开嵌套值,再用`groupby`聚合计数,避免手动维护哈希映射或冗长条件判断,兼顾可读性与性能。
处理百万级文本数据时,暴力循环+多重if判断不仅代码臃肿、易出错,且性能极差。针对本例中“City”和“Crime”字段均以波浪线(~)分隔多个取值的结构,Pandas 提供了简洁而高效的向量化解决方案。
核心思路是:先将多值字段拆分为列表,再“炸开”(explode)为独立行,使每行仅表示一个城市–犯罪的原子组合,最后按双字段分组计数。整个流程无需预定义城市/犯罪列表,也无需哈希表手动管理索引,完全由Pandas底层优化实现。
以下是完整可运行示例(假设输入CSV文件为 cities_crimes.csv):
import pandas as pd
# 1. 加载数据
df = pd.read_csv("cities_crimes.csv")
# 2. 拆分并展开 City 字段(支持空值与单值)
df["City"] = df["City"].str.split('~')
df = df.explode("City").dropna(subset=["City"]) # 去除空城市行
# 3. 拆分并展开 Crime 字段
df["Crime"] = df["Crime"].str.split('~')
df = df.explode("Crime").dropna(subset=["Crime"]) # 去除空犯罪类型
# 4. 按城市与犯罪类型分组计数
result = df.groupby(["City", "Crime"]).size().reset_index(name="count")
# 5. (可选)格式化为题目要求的字符串形式(如 "Mugging(2), Murder(1)")
from collections import defaultdict
city_summary = defaultdict(list)
for _, row in result.iterrows():
city_summary[row["City"]].append(f"{row['Crime']}({row['count']})")
# 转为DataFrame并排序输出
output_df = pd.DataFrame([
{"City": city, "Crimes": ", ".join(crimes)}
for city, crimes in sorted(city_summary.items())
])
print(output_df.to_string(index=False))✅ 关键优势说明: explode() 是 Pandas 0.25+ 的原生操作,对180万行数据性能优异(底层C实现),远快于Python循环; 自动处理缺失值与单值场景(str.split('~') 对不含~的字符串返回单元素列表); groupby(...).size() 比 value_counts() 更直接,返回 Series 或 DataFrame 均可灵活后续处理; 若需高频查询(如查 Paris 下 Murder 次数),可将结果转为 MultiIndex Series: city_crime_series = result.set_index(["City", "Crime"])["count"] print(city_crime_series.loc[("Paris", "Murder")]) # 输出 2
⚠️ 注意事项:
- 确保输入CSV正确解析(必要时指定 encoding='utf-8' 和 engine='python' 防止乱码或解析错误);
- 若原始数据存在前后空格(如 " London "),建议在 split 前添加 .str.strip() 预处理;
- 内存敏感场景下,可考虑分块读取(pd.read_csv(..., chunksize=100000))并累加计数,但需自行合并各块的 groupby 结果。
该方案将原本需要数千行逻辑的手动映射,压缩为不到10行清晰、可维护、高性能的代码,是处理此类多值关联统计问题的标准实践。










