HorizontalPodAutoscaler 是 Kubernetes 控制平面管理的资源对象,Go 程序仅通过 client-go 创建/更新其 YAML/struct;它不是可启动的服务,依赖 metrics-server、kube-controller-manager 等集群组件协同工作。

HorizontalPodAutoscaler 在 Go 中不是“配置对象”,而是通过 client-go 提交 YAML/struct 到 API Server
你不能在 Go 程序里“启动一个 HPA”或“内置 HPA 逻辑”——HorizontalPodAutoscaler 是 Kubernetes 集群中由 kube-controller-manager 持续监听和执行的资源对象。Go 的作用,仅限于用 client-go 构造并创建/更新这个资源。
常见误解是以为 HPA 可以像 HTTP server 一样在 Go 代码里“启动”,实际上它完全依赖集群控制平面。你的 Go 程序只是个客户端(类似 kubectl apply -f hpa.yaml 的编程化等价)。
- 必须确保 Go 进程有权限向
autoscaling/v2(推荐)或autoscaling/v1API 组写入HorizontalPodAutoscaler资源 - RBAC 必须显式授权:
apiGroups: ["autoscaling"], resources: ["horizontalpodautoscalers"], verbs: ["create", "update", "get"] - 目标
ScaleTargetRef(如 Deployment)必须与 HPA 同命名空间,且已存在
用 client-go 创建 autoscaling/v2 HorizontalPodAutoscaler 最小可行示例
v2 是当前稳定版本,支持 CPU、内存、自定义指标(Custom Metrics)和外部指标(External Metrics)。v1 仅支持 CPU,已被弃用。
关键字段包括:scaleTargetRef(指向 Deployment/StatefulSet)、minReplicas/maxReplicas、metrics(数组,每项定义一种指标来源和目标值)。
立即学习“go语言免费学习笔记(深入)”;
package main
import (
"context"
"log"
"time"
autoscalingv2 "k8s.io/api/autoscaling/v2"
v1 "k8s.io/api/core/v1"
metav1 "k8s.io/apimachinery/pkg/apis/meta/v1"
"k8s.io/apimachinery/pkg/runtime"
"k8s.io/apimachinery/pkg/runtime/serializer"
"k8s.io/client-go/kubernetes/scheme"
"k8s.io/client-go/rest"
"k8s.io/client-go/tools/clientcmd"
"k8s.io/client-go/util/homedir"
)
func main() {
config, err := rest.InClusterConfig()
if err != nil {
// fallback to kubeconfig
kubeconfig := homedir.HomeDir() + "/.kube/config"
config, err = clientcmd.BuildConfigFromFlags("", kubeconfig)
if err != nil {
log.Fatal(err)
}
}
clientset, err := autoscalingv2.NewForConfig(config)
if err != nil {
log.Fatal(err)
}
hpa := &autoscalingv2.HorizontalPodAutoscaler{
ObjectMeta: metav1.ObjectMeta{
Name: "my-app-hpa",
Namespace: "default",
},
Spec: autoscalingv2.HorizontalPodAutoscalerSpec{
ScaleTargetRef: autoscalingv2.CrossVersionObjectReference{
Kind: "Deployment",
Name: "my-app",
APIVersion: "apps/v1",
},
MinReplicas: func(i int32) *int32 { return &i }(1),
MaxReplicas: 10,
Metrics: []autoscalingv2.MetricSpec{{
Type: autoscalingv2.ResourceMetricSourceType,
Resource: &autoscalingv2.ResourceMetricSource{
Name: v1.ResourceCPU,
Target: autoscalingv2.MetricTarget{
Type: autoscalingv2.UtilizationMetricType,
AverageUtilization: func(i int32) *int32 { return &i }(80),
},
},
}},
},
}
_, err = clientset.HorizontalPodAutoscalers("default").Create(context.TODO(), hpa, metav1.CreateOptions{})
if err != nil {
log.Fatal(err)
}
log.Println("HPA created")
}
为什么 CPU 利用率设为 80% 却不触发扩缩?检查这三处
即使 HPA 对象成功创建,也常因以下原因“静默失效”:
-
targetAverageUtilization是针对每个 Pod 的 CPU 使用率平均值(单位 %),不是整个 Deployment 总和;若 Pod 未上报指标(如未启用 metrics-server),状态会卡在Unknown - 确认
metrics-server正在运行:kubectl get apiservice v1beta1.metrics.k8s.io应为True;若为False,HPA 无法获取任何指标 - HPA 控制器默认每 15–30 秒同步一次(由
--horizontal-pod-autoscaler-sync-period控制),不会实时响应;新 HPA 创建后需等待至少一个周期才显示Current CPU Utilization
自定义指标(Prometheus Adapter)需要额外字段和权限
若想基于 Prometheus 的 http_requests_total 或业务 QPS 扩容,必须使用 ExternalMetricSourceType 或 ObjectMetricSourceType,且集群需部署 prometheus-adapter 并配置规则。
此时 MetricSpec 结构完全不同:需指定 metric.name、metric.selector(匹配 Prometheus label)、target.averageValue(非 utilization)。
- ServiceAccount 需额外 RBAC:访问
externalmetrics.external.metrics.k8s.ioAPI 组 - CRD
ExternalMetric必须已安装,否则 client-go 创建 HPA 会报错:the server could not find the requested resource - 避免硬编码 namespace:用
metric.selector.matchLabels而非namespace字段,让指标查询更灵活










