高并发Python接口服务关键在于选用FastAPI或Sanic等异步框架,并确保数据库、序列化、中间件和部署全链路异步化与精简优化。

Python构建高并发接口服务,核心不在“换语言”,而在选对异步框架 + 做好关键路径优化。FastAPI(基于Starlette+Pydantic)和Sanic是当前主流选择,性能远超传统Flask/Django同步模型;但光靠框架不够,数据库、序列化、中间件、部署方式稍不注意,就会拖垮并发能力。
选对异步框架并精简依赖链
优先用 FastAPI(开发体验好、自动文档、类型驱动)或 Sanic(纯异步、更轻量)。避免在协程中混用同步库(如 requests、sqlite3),必须用 httpx(异步HTTP)、asyncpg(PostgreSQL)、tortoise-orm(异步ORM)等原生支持 asyncio 的库。禁用 Flask-SQLAlchemy 这类同步 ORM 的“伪异步”包装——它只是用线程池模拟,反而增加调度开销。
-
路由函数必须声明为
async def,否则事件循环会被阻塞 - 禁用全局中间件里做耗时同步操作(如日志写文件、同步校验 token)
- 静态文件交给 Nginx 处理,不要由 Python 框架 serve
数据库访问必须真异步 + 连接池复用
用 asyncpg(PostgreSQL)或 aiomysql(MySQL),连接池大小建议设为 CPU 核数 × 2~4。避免每次请求都新建连接;也别把连接池设得过大(比如 >50),会引发 PostgreSQL 的 max_connections 超限或上下文切换开销上升。查询尽量用 fetchrow() / fetchval() 替代 fetchall(),减少内存拷贝。
- 使用
async with pool.acquire() as conn:确保连接自动归还 - 复杂查询拆成多个小查询 + asyncio.gather 并行,比单个 JOIN 更可控
- 读多写少场景,加 Redis 缓存热点数据(用 aioredis v2+)
序列化与响应生成要零拷贝、低开销
Pydantic v2 默认启用缓存和 fastapi 内置的 JSON 序列化器(基于 orjson 或 ujson),比 json.dumps 快 3~5 倍。禁用 response_model_exclude_unset=True 这类动态字段过滤——它需要运行时反射,损耗可观。返回简单 dict 时,直接用 JSONResponse 绕过 Pydantic 验证;仅对入参/关键出参用 model 验证。
立即学习“Python免费学习笔记(深入)”;
- 避免在响应体中嵌套深层数组或大量 datetime 字段(序列化慢)
- 大文件下载用
StreamingResponse+ 异步生成器,不一次性 load 到内存 - 启用 GZIP 压缩(FastAPI 支持 middleware,但需权衡 CPU 开销)
部署与运行时调优不能跳过
用 Uvicorn(推荐)或 Hypercorn 启动,进程数设为 $(nproc) × 2,每进程开启多 worker(--workers)不如用 --workers=1 + --loop uvloop + --http h11 更稳。Linux 上务必配置:ulimit -n 65535,关闭 TCP slow start(net.ipv4.tcp_slow_start_after_idle = 0),Nginx upstream keepalive 至少 32 个长连接。
- 禁用 reload=True 上生产;用 systemd 或 Docker 管理进程生命周期
- 用
uvicorn --limit-concurrency 1000防止单请求耗尽所有协程 - 监控用 Prometheus + Starlette exporter,重点关注 task count、request duration、http connections
基本上就这些。高并发不是堆参数,而是让每个请求路径尽可能短、异步到底、避开阻塞点。从一个接口压测开始,用 locust 或 hey 找瓶颈,再逐层优化——比盲目升级硬件或换框架更有效。











