
Python代码提速关键不在盲目重写,而在于找准瓶颈、用对方法。多数情况下,性能问题出在算法选择、数据结构误用或I/O等待上,而非Python本身“慢”。
定位瓶颈:先测再改
不测量就优化,等于蒙眼调参。用cProfile看函数耗时分布,用line_profiler查具体哪一行拖后腿:
-
python -m cProfile -s cumulative your_script.py—— 按累计时间排序,快速锁定高耗时模块 - 给可疑函数加
@profile装饰器,运行kernprof -l -v script.py,精确到行级耗时 - 避免在开发机上测I/O密集型脚本——磁盘/网络延迟会掩盖真实CPU瓶颈
减少解释器开销:善用内置工具
Python内置函数和标准库大多用C实现,比纯Python循环快几倍到几十倍:
- 用
sum(lst)代替total = 0; for x in lst: total += x - 用
str.join()拼接字符串,别用+=(避免重复创建对象) - 用
set做成员判断(if x in my_set),O(1)比list的O(n)稳定得多 - 列表推导式通常比
for + append()快,但若逻辑复杂,可读性优先,速度差异往往不明显
避开常见“慢操作”陷阱
有些写法看似简洁,实则暗藏大量隐式开销:
立即学习“Python免费学习笔记(深入)”;
- 避免在循环内反复计算不变表达式,如
for i in range(len(data)):→ 改用for item in data:或提前算好len_data = len(data) - 不要用
list.append()频繁构建大列表后再sum(),考虑生成器表达式:sum(x * 2 for x in data if x > 0) - 慎用
eval()和exec(),它们每次都要解析字符串;配置类逻辑尽量用字典或getattr() - 全局变量访问比局部变量慢,函数内把频繁用的模块属性赋给局部变量(如
join = os.path.join)
该上C就上C:轻量级加速方案
当纯Python已触达极限,不必立刻上Cython或Rust,试试这些低门槛方案:
- NumPy:数值计算一律向量化,避免Python for循环处理数组
- functools.lru_cache():对纯函数加缓存,尤其适合递归或重复调用场景(注意内存占用)
-
multiprocessing:CPU密集任务绕过GIL,用
Pool.map()并行;I/O密集用threading或asyncio - 简单热点函数可用Numba(加
@jit装饰器),无需改代码,适合数学计算











