clock()仅测CPU时间,不计I/O等待等真实耗时;需用static_cast转换并除以CLOCKS_PER_SEC;测挂钟时间应改用std::chrono::high_resolution_clock。

clock() 只能测 CPU 时间,不能反映真实耗时;在多线程、I/O 或系统调度频繁的场景下,结果常严重偏低。
clock() 返回的是 CPU tick 数,不是秒
调用 clock() 得到的是程序自启动以来占用的 CPU 时钟周期数(类型为 clock_t),需除以 CLOCKS_PER_SEC 才得秒数。它不计等待时间——比如 sleep(1)、fread 等待磁盘或网络时,clock() 几乎不增长。
- 单线程纯计算密集型任务中,结果接近真实耗时
- 若程序中有大量
std::this_thread::sleep_for、文件读写、std::cin阻塞等,clock()值可能只有几十毫秒,而实际已过数秒 - 在多核或多线程环境下,
clock()行为未标准化,glibc 中通常只累加主线程的 CPU 时间
正确用法:两次调用 + 类型转换
必须成对使用,且注意整数溢出和精度丢失:
#include <ctime>
#include <iostream>
<p>int main() {
clock_t start = clock();
// ... your code here ...
clock_t end = clock();</p><pre class="brush:php;toolbar:false;">double cpu_time = static_cast<double>(end - start) / CLOCKS_PER_SEC;
std::cout << "CPU time: " << cpu_time << " s\n";}
-
start和end必须同为clock_t,直接相减是安全的 - 务必用
static_cast<double></double>转换,否则整数除法会截断小数(如(end-start)/CLOCKS_PER_SEC可能恒为 0) -
CLOCKS_PER_SEC在 POSIX 系统上通常是 1000000(微秒级),但标准只要求 ≥ 1000,不可硬编码
替代方案:用 std::chrono::high_resolution_clock
要测真实经过时间(wall-clock time),应改用 C++11 的 std::chrono:
立即学习“C++免费学习笔记(深入)”;
#include <chrono> #include <iostream> <p>auto start = std::chrono::high_resolution_clock::now(); // ... your code here ... auto end = std::chrono::high_resolution_clock::now();</p><p>auto duration = std::chrono::duration_cast<std::chrono::milliseconds>(end - start); std::cout << "Elapsed: " << duration.count() << " ms\n";
-
std::chrono::high_resolution_clock是系统最精确的挂钟,不受 CPU 占用率影响 - 支持纳秒级精度(实际取决于平台,Linux 通常为纳秒,Windows 为 15.6ms 左右)
- 跨线程、含 I/O、sleep 等场景下结果可信
- 注意:
high_resolution_clock在某些旧编译器(如 GCC 4.8)中可能退化为system_clock,建议加运行时校验
真正需要区分“CPU 时间”和“挂钟时间”——前者适合性能分析瓶颈是否在计算本身,后者才是用户感知的响应时长。别只因 clock() 写起来短就默认用它,尤其在涉及 sleep、IO 或并发时,数值基本没参考价值。









