真正可排查的http调用日志必须包含发起时间、目标url、http方法、关键请求头、脱敏请求体、响应状态码、关键响应头(如x-request-id)、响应体长度或前n字节、精确耗时(毫秒)、是否超时/异常;敏感字段须脱敏,curl/guzzle需分场景埋点,日志应json化、按天轮转、带trace_id并采样控制。

PHP调用外部服务时日志该记哪些字段
只记 echo 或 error_log() 一行字符串,基本等于没记。真正可排查的调用日志至少得包含:发起时间、目标 URL、HTTP 方法、请求头(关键如 Authorization、Content-Type)、请求体(脱敏后)、响应状态码、响应头(尤其是 X-Request-ID)、响应体长度或前 N 字节、耗时(毫秒)、是否超时/异常中断。缺任何一项,线上出问题时都可能卡在“到底发没发出去”“对方回没回”这种基础判断上。
常见错误是把整个 $response 对象直接 json_encode() 记录——里面常含二进制内容、循环引用或敏感 token,导致日志写入失败或污染日志文件。
- 敏感字段如
api_key、password、id_token必须在记录前用固定字符串(如[REDACTED])替换,不能靠“不传就安全”的侥幸 - 请求体若为
multipart/form-data,只记录字段名和文件名,不记原始二进制 - 耗时必须用
microtime(true)精确计算,别用time()—— 秒级精度在调试超时问题时毫无意义
用 Monolog 记录 HTTP 调用日志最简可行配置
硬写 file_put_contents() 容易丢日志、无轮转、无并发保护。Monolog 是事实标准,但不用全功能——只需最小依赖 + 自定义 Handler 就够用。
关键不是“怎么装 Monolog”,而是“怎么让它不干扰主流程”。推荐用异步写入 + 单例复用:
立即学习“PHP免费学习笔记(深入)”;
- 初始化一次
$logger实例,全局共享,不要每次调用都 new - Handler 选
StreamHandler,但设$bubble = false,避免日志被重复处理 - Formatter 用
LineFormatter,$includeStacktraces = false,HTTP 日志不需要堆栈 - 日志级别统一用
Logger::INFO,错误单独用Logger::ERROR,别混用DEBUG——线上开 DEBUG 会撑爆磁盘
示例片段:
$logger = new Logger('http');
$handler = new StreamHandler('/var/log/php-http.log', Logger::INFO);
$handler->setFormatter(new LineFormatter(null, null, false, true));
$logger->pushHandler($handler);
// 后续所有调用统一走 $logger->info(),不 new 不重配
cURL 和 Guzzle 日志埋点位置差异
不是所有 HTTP 客户端都支持“自动打日志”。cURL 没内置钩子,必须手动包一层;Guzzle 有 on_stats 和中间件机制,但默认不开启。
- cURL 场景:在
curl_exec()前后各记一条日志,用curl_getinfo($ch, CURLINFO_HEADER_OUT)提取发出的 header,用CURLINFO_HTTP_CODE和CURLINFO_TOTAL_TIME取结果 - Guzzle 场景:优先用
on_stats事件,它能拿到真实 DNS 解析、TCP 连接、TLS 握手等分段耗时,比单纯测 exec 前后更准 - 别在 Guzzle 中间件里改
$request或$response同时又记日志——中间件执行顺序不确定,可能日志内容和实际发出/收到的不一致
尤其注意:Guzzle v7 的 on_stats 回调参数是 TransferStats 对象,要取原始请求体得从 $stats->getRequest()->getBody()->getContents(),但这个操作会消耗流,后续中间件拿不到 body——得提前缓存或改用 __toString()。
日志文件爆炸和检索困难怎么破
HTTP 调用频次高,一天几 GB 日志很常见。不控制,磁盘迟早告警;不结构化,grep 查个 traceID 要跑十分钟。
- 强制按天切分:用
RotatingFileHandler替代StreamHandler,设$maxFiles = 30,避免无限增长 - 日志内容必须 JSON 化:每行一个合法 JSON,字段名统一(如固定用
url、status_code、duration_ms),方便 Logstash 或 grep + jq 解析 - 加唯一追踪 ID:在发起请求前生成
$trace_id = bin2hex(random_bytes(8)),透传到下游服务(通过X-Request-ID),并在日志中记录。这样前后端日志能串起来 - 别用
file_put_contents(..., FILE_APPEND)写大日志——高并发下会锁文件,接口变慢;Monolog 的StreamHandler默认用fopen(..., 'a'),已规避此问题
最常被忽略的是日志采样。非核心链路(比如上报埋点、第三方通知)可以 1% 采样记录,用 mt_rand(1, 100) === 1 控制,既保留问题线索,又不压垮存储。











