0

0

Python怎样操作Prometheus?prometheus-client

爱谁谁

爱谁谁

发布时间:2025-08-18 12:25:01

|

617人浏览过

|

来源于php中文网

原创

python应用暴露自定义指标到prometheus的核心是使用prometheus-client库,1. 安装库:pip install prometheus_client;2. 定义指标类型:包括counter(计数器,仅增)、gauge(计量器,可增减)、summary(摘要,客户端计算分位数)和histogram(直方图,服务端计算分位数);3. 使用标签(labels)增加维度,但需避免高基数标签(如用户id、请求id)以防止性能问题;4. 通过start_http_server(端口)启动http服务,在/metrics路径暴露指标;5. 对于短生命周期任务,使用pushgateway推送指标而非拉取模式;6. 遵循命名规范(如snake_case、_total结尾、含单位)并提供清晰描述。此外,可构建自定义exporter监控第三方系统,或结合web框架中间件实现自动化指标采集,所有方案均基于prometheus-client实现。

Python怎样操作Prometheus?prometheus-client

在Python中操作Prometheus,最直接也最常用的方式就是利用官方提供的

prometheus-client
库。它允许你从Python应用程序中轻松地暴露各种指标,供Prometheus服务器进行抓取。这个库提供了创建、更新不同类型指标的API,并且能启动一个简单的HTTP服务器来暴露这些指标。

解决方案

要开始用Python暴露Prometheus指标,首先你需要安装

prometheus-client
库:

pip install prometheus_client

然后,在你的Python应用中,你可以定义不同类型的指标,并更新它们的值。一个典型的设置会是这样:

立即学习Python免费学习笔记(深入)”;

from prometheus_client import start_http_server, Counter, Gauge, Summary, Histogram
import random
import time

# 定义一个计数器,用于统计请求总数
REQUEST_COUNT = Counter('my_app_requests_total', 'Total number of requests to my application.')

# 定义一个计量器,用于实时显示某个值(比如当前活跃用户数)
ACTIVE_USERS = Gauge('my_app_active_users', 'Current number of active users.')

# 定义一个摘要,用于记录请求处理时间,提供分位数信息
REQUEST_LATENCY_SECONDS = Summary('my_app_request_latency_seconds', 'Request latency in seconds.')

# 定义一个直方图,也用于记录请求处理时间,但提供可配置的桶
REQUEST_DURATION_HISTOGRAM = Histogram('my_app_request_duration_seconds', 'Request duration in seconds histogram.')

def process_request():
    """模拟一个处理请求的函数"""
    REQUEST_COUNT.inc() # 每次调用,计数器加1

    # 随机模拟处理时间
    processing_time = random.uniform(0.01, 0.5)
    time.sleep(processing_time)

    # 更新摘要和直方图
    REQUEST_LATENCY_SECONDS.observe(processing_time)
    REQUEST_DURATION_HISTOGRAM.observe(processing_time)

    # 模拟活跃用户数变化
    if random.random() < 0.5:
        ACTIVE_USERS.inc()
    else:
        ACTIVE_USERS.dec()

if __name__ == '__main__':
    # 启动一个HTTP服务器,在端口8000暴露指标
    # 注意:这通常在一个单独的线程中运行,不会阻塞主应用逻辑
    start_http_server(8000)
    print("Prometheus metrics server started on port 8000")

    # 模拟主应用逻辑持续运行
    while True:
        process_request()
        time.sleep(0.1) # 模拟请求间隔

这段代码展示了如何初始化不同类型的指标,并在一个模拟的业务逻辑中更新它们。

start_http_server(8000)
会启动一个轻量级的HTTP服务,在
http://localhost:8000/metrics
路径下暴露这些指标,Prometheus服务器就可以配置来抓取这个端点。

Python应用如何暴露自定义指标到Prometheus?

当我们在谈论Python应用如何暴露自定义指标时,核心其实就是利用

prometheus-client
提供的四种基本指标类型:
Counter
(计数器)、
Gauge
(计量器)、
Summary
(摘要)和
Histogram
(直方图)。理解它们各自的用途是关键。

Counter
是最简单的,它只能增加,不能减少。我通常用它来记录那些只会单向增长的事件,比如总的请求次数、错误发生的次数。一旦定义,你只需要调用
.inc()
(默认加1)或者
.inc(amount)
来增加它的值。我个人觉得,对于任何“总量”性质的统计,
Counter
都是首选。

Gauge
则不同,它能增能减,能设任意值。这让它非常适合表示那些可以上下波动的量,比如当前的CPU使用率、内存占用、队列长度,甚至是活跃的用户数。你可以用
.inc()
.dec()
.set(value)
来操作它。有时候,我甚至会用它来暴露一些配置参数,虽然这不是它的主要设计目的,但确实能帮助调试。

Summary
Histogram
都用于测量事件的持续时间或大小分布。它们之间的区别,我简单理解就是:
Summary
给你的是分位数(比如P99、P95),并且它会计算总和和总数;而
Histogram
则将数据放入预定义的桶中,然后你可以通过这些桶来推断分位数,同时也能计算总和和总数。选择哪个,很大程度上取决于你对数据精度的要求以及后续查询的习惯。
Summary
在客户端计算分位数,对于高基数(label组合多)的场景,可能会消耗更多客户端资源。
Histogram
则在服务器端(Prometheus)计算分位数,通过
histogram_quantile
函数,这在处理大量数据时通常更灵活,也更适合聚合。对我而言,如果对精确分位数要求高,或者数据范围变化大,我更倾向于使用
Histogram
,因为它提供了更细粒度的控制,可以自定义桶的边界。

在实际操作中,指标的命名规范也非常重要。Prometheus社区有一些约定俗成的规则,比如使用

snake_case
,以
_total
结尾表示计数器,包含单位(如
_seconds
_bytes
)。良好的命名习惯不仅让你的指标更易读,也能让其他人更容易理解你的系统状态。

from prometheus_client import Counter, Gauge, Summary, Histogram, generate_latest
from http.server import BaseHTTPRequestHandler, HTTPServer
import time
import random

# 带标签的计数器,可以按不同的HTTP方法统计
HTTP_REQUESTS_TOTAL = Counter(
    'http_requests_total',
    'Total HTTP requests received',
    ['method', 'endpoint'] # 定义标签
)

# 计量器,用于表示一个瞬时值,例如缓存命中率
CACHE_HIT_RATIO = Gauge('cache_hit_ratio', 'Current cache hit ratio')

# 直方图,用于记录API响应时间,并自定义桶
API_RESPONSE_TIME_SECONDS = Histogram(
    'api_response_time_seconds',
    'API response time in seconds',
    buckets=[0.005, 0.01, 0.025, 0.05, 0.1, 0.25, 0.5, 1.0, 2.5, 5.0, 10.0, float('inf')]
)

class MetricsHandler(BaseHTTPRequestHandler):
    def do_GET(self):
        if self.path == '/metrics':
            self.send_response(200)
            self.send_header('Content-type', 'text/plain; version=0.0.4; charset=utf-8')
            self.end_headers()
            self.wfile.write(generate_latest()) # 获取所有注册的指标数据
        else:
            self.send_response(404)
            self.end_headers()

def run_mock_api():
    """模拟一个带指标更新的API服务"""
    while True:
        method = random.choice(['GET', 'POST', 'PUT'])
        endpoint = random.choice(['/users', '/products', '/orders'])

        # 更新计数器,带标签
        HTTP_REQUESTS_TOTAL.labels(method=method, endpoint=endpoint).inc()

        # 模拟API处理时间
        response_time = random.uniform(0.01, 1.0)
        API_RESPONSE_TIME_SECONDS.observe(response_time)

        # 随机更新缓存命中率
        CACHE_HIT_RATIO.set(random.uniform(0.7, 0.99))

        time.sleep(random.uniform(0.1, 0.5))

if __name__ == '__main__':
    # 在单独的线程中启动HTTP服务器
    from threading import Thread
    metrics_server_thread = Thread(target=lambda: HTTPServer(('0.0.0.0', 8000), MetricsHandler).serve_forever())
    metrics_server_thread.daemon = True # 设置为守护线程,主程序退出时自动退出
    metrics_server_thread.start()
    print("Metrics server running on http://localhost:8000/metrics")

    # 运行模拟API
    run_mock_api()

这段代码展示了如何使用标签(labels)来增加指标的维度,这在Prometheus中非常强大,可以让你根据不同的维度(比如HTTP方法、API端点)来切分和聚合数据。同时,也展示了如何自定义

Histogram
的桶,以及手动设置HTTP服务器来暴露指标,这在某些更复杂的场景下可能会用到。

采集Python应用指标时有哪些常见陷阱和优化建议?

在使用

prometheus-client
来暴露Python应用的指标时,确实会遇到一些小坑,或者说,有一些地方需要我们特别注意,才能让监控系统既高效又实用。我个人在实践中总结了几点:

Imagine By Magic Studio
Imagine By Magic Studio

AI图片生成器,用文字制作图片

下载

首先,最常见的陷阱就是高基数(High Cardinality)问题。如果你在指标的标签中使用了像用户ID、请求ID、会话ID或者时间戳这类非常动态且唯一的值,那么Prometheus在存储和查询这些指标时会面临巨大的压力。每一个独特的标签组合都会被视为一个新的时间序列。想象一下,如果你的应用每秒处理数千个请求,每个请求都有一个唯一的ID作为标签,那Prometheus的存储空间很快就会爆炸,查询也会变得异常缓慢。我记得有一次,我们不小心把一个日志ID加到了某个核心指标的标签里,结果不到半天,Prometheus的磁盘使用率就飙升了。所以,我的建议是:对标签的设计要非常谨慎,只使用那些具有业务意义且基数有限的维度,比如HTTP方法、状态码、API路径(但要避免包含动态参数的路径)、服务版本、部署区域等。

其次,是关于指标更新的频率与性能。虽然

prometheus-client
本身设计得很高效,但如果你在非常热的代码路径(比如每个微秒都在执行的循环里)频繁地更新大量指标,这仍然可能对应用本身的性能造成轻微影响。通常,这并不是一个大问题,因为Python的GIL(全局解释器锁)会限制并发,而且指标更新操作本身很快。但如果你的应用对延迟极其敏感,或者指标数量真的非常庞大,你可能需要考虑批量更新,或者只在关键路径上进行更新。不过,说实话,对于大多数Web应用和后台服务,这种性能开销通常可以忽略不计。

再来就是短生命周期任务的指标暴露

prometheus-client
默认是启动一个HTTP服务器,等待Prometheus来抓取。但如果你的Python脚本是一个短生命周期的任务(比如一个定时脚本,运行几秒钟就结束了),Prometheus可能还没来得及抓取,你的脚本就已经退出了。这种情况下,传统的拉取模式就不太适用。解决方案通常是使用Prometheus Pushgateway。你的Python脚本可以将指标推送到Pushgateway,然后Prometheus从Pushgateway抓取。这为短生命周期任务提供了一个非常优雅的监控方式。

from prometheus_client import push_to_gateway, Counter
import random
import time

# 定义一个计数器
BATCH_JOB_RUNS_TOTAL = Counter('batch_job_runs_total', 'Total runs of the batch job.')
BATCH_JOB_FAILURES_TOTAL = Counter('batch_job_failures_total', 'Total failures of the batch job.')

def run_batch_job():
    """模拟一个批处理任务"""
    BATCH_JOB_RUNS_TOTAL.inc()
    print("Batch job started...")

    # 模拟任务执行时间
    time.sleep(random.uniform(1, 5))

    if random.random() < 0.2: # 20% 失败率
        BATCH_JOB_FAILURES_TOTAL.inc()
        print("Batch job failed!")
    else:
        print("Batch job completed successfully.")

    # 任务结束后,将指标推送到Pushgateway
    # job参数是必须的,用于标识这个批处理任务
    # 可以添加分组键(groupingkey)来进一步区分,比如按实例ID
    push_to_gateway('localhost:9091', job='my_python_batch_job', grouping_key={'instance': 'my_server_1'}, registry=None)
    print("Metrics pushed to Pushgateway.")

if __name__ == '__main__':
    # 假设Pushgateway运行在localhost:9091
    run_batch_job()

这段代码展示了如何使用

push_to_gateway
将指标推送到Pushgateway。
registry=None
表示推送所有默认注册的指标。
job
参数是Prometheus用来识别这个任务的名称,
grouping_key
则可以让你为同一
job
下的指标添加额外的维度,比如区分不同的实例。

最后,一个小的优化点是,确保你的指标描述(docstring)清晰明了。这不仅方便你自己,也方便团队里的其他人理解这些指标的含义。一个好的指标描述能省去很多沟通成本。

除了标准库,还有哪些方法可以与Prometheus集成?

当提到Python与Prometheus的集成,

prometheus-client
无疑是官方且最直接的方式。但“除了标准库”这个说法,其实可以理解为除了
prometheus-client
这个“标准”的Python客户端库之外,还有没有其他思路或工具。从这个角度来看,答案是肯定的,主要可以归纳为以下几类:

首先,是Prometheus Pushgateway,前面已经提到了。它并不是一个替代

prometheus-client
的方案,而是
prometheus-client
的一种补充用法。当你的Python应用是短生命周期的脚本、批处理任务或者无法被Prometheus直接抓取(例如在严格防火墙后)时,Pushgateway就显得尤为重要。你的Python程序不再是等待被拉取,而是主动将指标“推”给Pushgateway,由Pushgateway再暴露给Prometheus抓取。这对于那些跑完就退出的任务,或者需要聚合来自多个短暂实例的指标,是非常实用的。

其次,是自定义Prometheus Exporter。虽然

prometheus-client
可以让你在Python应用内部暴露指标,但有时候你可能需要监控一个非Python服务,或者一个没有内置Prometheus指标暴露能力的第三方系统。在这种情况下,你可以用Python编写一个独立的程序,作为该服务的“Prometheus Exporter”。这个Exporter会连接到目标服务(比如数据库、消息队列、操作系统API等),获取其内部状态数据,然后将这些数据转换成Prometheus可识别的指标格式,并通过自身的HTTP端口暴露出来。这个Exporter本身通常也会使用
prometheus-client
来暴露它自己的内部运行状态指标(比如它处理了多少次请求,连接目标服务花了多长时间等)。这种方式的优点是高度灵活,可以监控任何你能通过Python访问到的数据源。

举个例子,假设你想监控一个没有Prometheus接口的遗留系统。你可以写一个Python脚本:

  1. 连接到那个遗留系统(可能是通过SSH、REST API、数据库查询等)。
  2. 解析获取到的数据。
  3. 使用
    prometheus-client
    将这些数据转换为Prometheus指标。
  4. 启动一个HTTP服务器,暴露这些指标。
from prometheus_client import Gauge, start_http_server
import time
import random

# 假设这是从某个遗留系统获取到的数据
LEGACY_SYSTEM_STATUS = Gauge('legacy_system_status', 'Status of the legacy system (1=ok, 0=error)')
LEGACY_SYSTEM_QUEUE_DEPTH = Gauge('legacy_system_queue_depth', 'Current depth of the legacy system queue')

def fetch_legacy_data():
    """模拟从遗留系统获取数据"""
    # 实际场景中,这里会是调用API、SSH命令或数据库查询
    status = 1 if random.random() > 0.1 else 0 # 10% 几率出错
    queue_depth = random.randint(0, 100)
    return status, queue_depth

def run_exporter():
    while True:
        status, queue_depth = fetch_legacy_data()
        LEGACY_SYSTEM_STATUS.set(status)
        LEGACY_SYSTEM_QUEUE_DEPTH.set(queue_depth)
        print(f"Fetched legacy data: Status={status}, QueueDepth={queue_depth}")
        time.sleep(10) # 每10秒更新一次

if __name__ == '__main__':
    start_http_server(8001) # Exporter在8001端口暴露
    print("Legacy system exporter started on port 8001")
    run_exporter()

这个简单的例子展示了如何构建一个独立的Exporter。它定期从一个模拟的“遗留系统”获取数据,并将其转换为Prometheus指标。

最后,一些高级框架或库的集成。虽然这本质上还是基于

prometheus-client
,但它们可能提供更高级别的抽象,让你在特定的Python Web框架(如Flask, Django, FastAPI)中更方便地集成指标。例如,有些库会提供中间件,自动帮你记录HTTP请求的计数、延迟等,而无需你手动在每个路由中添加代码。这些库通常会封装
prometheus-client
的调用,提供更“开箱即用”的体验。它们并非完全不同的集成方式,而是让
prometheus-client
在特定生态系统中用起来更顺手。但归根结底,核心逻辑依然是
prometheus-client
在背后默默工作。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python Web 框架 Django 深度开发
Python Web 框架 Django 深度开发

本专题系统讲解 Python Django 框架的核心功能与进阶开发技巧,包括 Django 项目结构、数据库模型与迁移、视图与模板渲染、表单与认证管理、RESTful API 开发、Django 中间件与缓存优化、部署与性能调优。通过实战案例,帮助学习者掌握 使用 Django 快速构建功能全面的 Web 应用与全栈开发能力。

166

2026.02.04

Python Flask框架
Python Flask框架

本专题专注于 Python 轻量级 Web 框架 Flask 的学习与实战,内容涵盖路由与视图、模板渲染、表单处理、数据库集成、用户认证以及RESTful API 开发。通过博客系统、任务管理工具与微服务接口等项目实战,帮助学员掌握 Flask 在快速构建小型到中型 Web 应用中的核心技能。

104

2025.08.25

Python Flask Web框架与API开发
Python Flask Web框架与API开发

本专题系统介绍 Python Flask Web框架的基础与进阶应用,包括Flask路由、请求与响应、模板渲染、表单处理、安全性加固、数据库集成(SQLAlchemy)、以及使用Flask构建 RESTful API 服务。通过多个实战项目,帮助学习者掌握使用 Flask 开发高效、可扩展的 Web 应用与 API。

81

2025.12.15

什么是中间件
什么是中间件

中间件是一种软件组件,充当不兼容组件之间的桥梁,提供额外服务,例如集成异构系统、提供常用服务、提高应用程序性能,以及简化应用程序开发。想了解更多中间件的相关内容,可以阅读本专题下面的文章。

183

2024.05.11

Golang 中间件开发与微服务架构
Golang 中间件开发与微服务架构

本专题系统讲解 Golang 在微服务架构中的中间件开发,包括日志处理、限流与熔断、认证与授权、服务监控、API 网关设计等常见中间件功能的实现。通过实战项目,帮助开发者理解如何使用 Go 编写高效、可扩展的中间件组件,并在微服务环境中进行灵活部署与管理。

226

2025.12.18

Python FastAPI异步API开发_Python怎么用FastAPI构建异步API
Python FastAPI异步API开发_Python怎么用FastAPI构建异步API

Python FastAPI 异步开发利用 async/await 关键字,通过定义异步视图函数、使用异步数据库库 (如 databases)、异步 HTTP 客户端 (如 httpx),并结合后台任务队列(如 Celery)和异步依赖项,实现高效的 I/O 密集型 API,显著提升吞吐量和响应速度,尤其适用于处理数据库查询、网络请求等耗时操作,无需阻塞主线程。

28

2025.12.22

Python 微服务架构与 FastAPI 框架
Python 微服务架构与 FastAPI 框架

本专题系统讲解 Python 微服务架构设计与 FastAPI 框架应用,涵盖 FastAPI 的快速开发、路由与依赖注入、数据模型验证、API 文档自动生成、OAuth2 与 JWT 身份验证、异步支持、部署与扩展等。通过实际案例,帮助学习者掌握 使用 FastAPI 构建高效、可扩展的微服务应用,提高服务响应速度与系统可维护性。

251

2026.02.06

pip安装使用方法
pip安装使用方法

安装步骤:1、确保Python已经正确安装在您的计算机上;2、下载“get-pip.py”脚本;3、按下Win + R键,然后输入cmd并按下Enter键来打开命令行窗口;4、在命令行窗口中,使用cd命令切换到“get-pip.py”所在的目录;5、执行安装命令;6、验证安装结果即可。大家可以访问本专题下的文章,了解pip安装使用方法的更多内容。

373

2023.10.09

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

76

2026.03.11

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号