关键在于暴露 go_goroutines 指标并正确配置:需显式注册 gocollector、绑定 /metrics 到 0.0.0.0、用趋势判断(如 go_goroutines > 100 and go_goroutines > (go_goroutines offset 2m))而非绝对阈值,避免因容器重启导致指标中断。

怎么用 Prometheus 抓到 goroutine 数暴涨
关键不是“能不能”,而是 runtime.NumGoroutine() 必须暴露成指标,且采集频率要够高(默认 15s 太慢,goroutine 泄露可能几秒就翻倍)。Prometheus 官方 client_golang 提供了 go_goroutines 这个默认指标,但前提是你的程序启用了 http.DefaultServeMux 并注册了 /metrics —— 很多人漏掉这步,结果 metrics 端点返回 404,Prometheus 一直 scrape 失败。
- 确保在 main 入口调用
prometheus.MustRegister(prometheus.NewGoCollector())(虽然默认 collector 通常已注册,但容器环境里 runtime 可能被裁剪,显式注册更稳) - HTTP handler 必须挂载到
/metrics,例如:http.Handle("/metrics", promhttp.Handler()),路径不能改,否则 Prometheus 配置得同步改,容易漏 - 容器内服务若监听
localhost:8080,Prometheus 从宿主机或 sidecar 抓取时会失败——必须绑定0.0.0.0:8080
为什么 go_goroutines 指标突然跳变却报不了警
因为单纯看瞬时值没意义:启动时 5 个 goroutine,处理请求后涨到 50 是正常;但持续 5 分钟不回落,才可疑。Prometheus 报警规则必须基于变化趋势,而不是阈值绝对值。
- 用
rate(go_goroutines[5m])没用——goroutine 数是计数器,不是累加型指标,rate()会算出负数或零,直接废掉 - 正确做法是用
go_goroutines > 100 and go_goroutines > (go_goroutines offset 2m),意思是“当前值超 100 且比 2 分钟前还高”,排除抖动 - 容器内存限制为 512MiB 时,goroutine 超过 3000 往往触发 OOMKilled,但报警阈值设 3000 就晚了——建议设 800,并搭配
count by (job, instance) (go_goroutines > 800) > 1防止单点误报
容器里 runtime.NumGoroutine() 返回的数为什么和 ps -T 不一致
根本不是一回事:runtime.NumGoroutine() 统计的是 Go runtime 当前管理的 goroutine 总数(包括已结束但尚未被 GC 清理的),而 ps -T 显示的是 OS 线程(thread)数,一个 OS 线程可跑多个 goroutine,也可能因 GOMAXPROCS 限制长期空闲。监控必须信前者,后者只适合排查线程级阻塞。
- 容器 cgroup 中
tasks文件里的进程数 ≈ OS 线程数,和 goroutine 数无直接换算关系 - 如果你看到
ps -T | wc -l是 12,但go_goroutines是 2300,说明有大量 goroutine 在 channel 上阻塞或 sleep,没释放——这才是泄露信号 -
debug.ReadGCStats()和runtime.ReadMemStats()不能替代 goroutine 监控,它们反映的是内存压力,不是并发结构异常
报警规则写好了,但容器重启后指标断了怎么办
Prometheus 的指标是无状态的,每次 scrape 都是快照。容器重启后实例标签(如 instance="10.244.1.5:8080")变了,旧时间序列自动终结。这不是 bug,是设计使然——但会导致你没法用“过去 10 分钟均值”这种跨重启逻辑。
立即学习“go语言免费学习笔记(深入)”;
- 别在 alert rule 里写
go_goroutines offset 10m,重启后这个 offset 会查不到数据,表达式直接返回空 - 要用
absent_over_time(go_goroutines[3m])单独告警“指标丢失”,这比 goroutine 泄露更紧急——说明应用挂了或 metrics 端点不可达 - 如果真需要跨重启分析,得靠外部存储(如 Thanos)+ label 重写(把容器名、deployment 名打到
job或cluster标签里),但这已经超出单容器监控范畴
0.0.0.0 写成 localhost,或者 /metrics 被反向代理吞掉,然后花半天调报警规则。










