aiofiles是专为asyncio设计的异步文件操作库,通过封装阻塞I/O为协程实现非阻塞读写,需用async with aiofiles.open()获取异步句柄并await读写,配合Semaphore限流与批量写入提升高并发场景性能。

aiofiles 是一个专为 asyncio 设计的异步文件操作库,它通过将标准的阻塞式文件 I/O 封装成协程,让读写文件也能“不等待”,从而真正融入异步事件循环。但要注意:它本身不提升磁盘吞吐性能,而是避免单个文件操作阻塞整个协程调度——这对高并发场景(如同时处理成百上千个日志、上传、导出任务)非常关键。
核心配合方式:用 async with + open 替代同步 open
所有文件操作必须在 async def 函数中进行,并使用 async with 语法获取异步文件句柄:
- 不能直接调用
open(),那会阻塞事件循环 - 必须用
aiofiles.open(...),它返回一个支持await read()/await write()的异步对象 - 务必用
async with确保自动关闭,否则可能泄漏文件描述符
示例:
async def write_log(filename, content):async with aiofiles.open(filename, "a", encoding="utf-8") as f:
await f.write(f"[{time.time():.3f}] {content}\n")
高并发写入的关键:控制并发数,而非盲目 asyncio.gather
磁盘 I/O 并发过高反而会因寻道/队列争抢导致整体变慢。推荐用 asyncio.Semaphore 限流:
- 创建一个信号量,例如
sem = asyncio.Semaphore(10)表示最多 10 个写入同时进行 - 每个写任务前
async with sem:,自动排队等待空闲槽位 - 避免用
asyncio.gather(*[write_log(...) for ...])直接展开大量协程
这样既保持异步非阻塞,又防止 IO 过载。
批量写入比逐条 await 更高效
频繁小写入(如每条日志都单独 write)会产生大量系统调用开销。更优做法是:
- 先在内存中累积多条内容(如用
io.StringIO或列表拼接) - 达到一定数量(如 100 条)或超时(如 100ms)后,一次性
await f.write(all_content) - 对日志类场景,可搭配
asyncio.create_task()启动后台刷盘协程
注意平台与模式差异
aiofiles 底层仍依赖操作系统调用,不同平台行为略有不同:
- Linux/macOS:基于
loop.run_in_executor把阻塞调用扔进线程池,默认安全 - Windows:需确保 Python ≥ 3.8 且使用 ProactorEventLoop(默认),否则可能报错
- 不支持异步
os.stat()、os.listdir()等元数据操作,这些仍需run_in_executor -
"w"模式会清空文件;"a"追加写入,多协程并发追加时注意内容顺序不保证(除非加锁或单写入器)










