Cgroups是Linux内核用于资源限制的核心机制,通过创建层级结构将进程分组并设置CPU、内存、I/O等资源约束。首先确定使用Cgroups v1或v2版本,v1为多层级结构,v2为单一层级,配置方式不同但核心理念一致。通常Cgroups已自动挂载,否则需手动挂载对应文件系统。创建Cgroup即在/sys/fs/cgroup下建立目录,随后通过写入配置文件设定资源限制:v1中使用cpu.shares、cpu.cfs_period_us和cpu.cfs_quota_us控制CPU,memory.limit_in_bytes限制内存;v2中则使用cpu.max和memory.max实现类似功能,并通过memory.swap.max控制swap使用。I/O限制在v1中通过blkio子系统配置读写速率。将进程加入Cgroup需将其PID写入tasks(v1)或cgroup.procs(v2)。可借助systemd在.service文件中启用CPUAccounting、MemoryAccounting并设置CPUQuota、MemoryLimit等参数简化管理,也可使用libcgroup工具如cgcreate、cgexec进行操作。资源限制可动态调整,实时修改配置文件即可生效。监控可通过读取cpuacct.usage、cpu.stat、memory.usage_in_bytes等统计文件完成。配置后可通过压力测试程序验证限制是否生效。v2相较v1结构更统一,但需注意兼容性问题

限制Linux中的资源,通常指的是控制进程或进程组可以使用的CPU、内存、磁盘I/O等。Cgroups (Control Groups) 是Linux内核提供的一种机制,用于实现资源隔离、限制和审计。配置Cgroups就是实现资源限制的关键。
Cgroups配置方法
Cgroups的核心在于创建一个层级结构,然后将进程分配到不同的组中,并为每个组设置资源限制。
-
确定Cgroups版本:
Linux系统通常使用Cgroups v1或v2。 使用
ls /sys/fs/cgroup/
命令查看挂载的子系统,如果看到诸如cpu
,memory
等目录,那么很可能你正在使用Cgroups v1。 如果只有一个cgroup.subtree_control
文件,那么你可能在使用Cgroups v2。 这两种版本的配置方式略有不同,但核心概念相似。 -
挂载Cgroups文件系统(如果尚未挂载):
Cgroups通常会自动挂载。如果没有,可以手动挂载。
-
Cgroups v1:
mount -t cgroup -o cpu,memory cgroup /sys/fs/cgroup
-
Cgroups v2:
Cgroups v2使用单一层级结构,因此只需要挂载根Cgroup。
mount -t cgroup2 cgroup2 /sys/fs/cgroup
如果出现权限问题,可能需要
sudo
。 -
-
创建Cgroup:
在相应的Cgroup文件系统下创建一个目录,就相当于创建了一个新的Cgroup。
mkdir /sys/fs/cgroup/cpu/my_group # Cgroups v1 mkdir /sys/fs/cgroup/my_group # Cgroups v2
-
配置资源限制:
进入Cgroup目录,修改相应的配置文件。
-
CPU限制 (Cgroups v1):
-
cpu.shares
: 相对CPU份额。数值越高,分配到的CPU时间越多。例如,将my_group
的CPU份额设置为512。echo 512 > /sys/fs/cgroup/cpu/my_group/cpu.shares
-
cpu.cfs_period_us
和cpu.cfs_quota_us
: 限制CPU使用的时间。cpu.cfs_period_us
定义一个时间周期(微秒),cpu.cfs_quota_us
定义在这个周期内允许使用的CPU时间。例如,限制my_group
在100ms内最多使用50ms的CPU时间。echo 100000 > /sys/fs/cgroup/cpu/my_group/cpu.cfs_period_us echo 50000 > /sys/fs/cgroup/cpu/my_group/cpu.cfs_quota_us
-
-
CPU限制 (Cgroups v2):
-
cpu.max
: 限制CPU使用的时间。格式为 "quota period",例如 "50000 100000" 表示在100ms内最多使用50ms的CPU时间。echo "50000 100000" > /sys/fs/cgroup/my_group/cpu.max
-
-
内存限制 (Cgroups v1和v2):
-
memory.limit_in_bytes
: 限制内存使用量(字节)。例如,限制my_group
最多使用1GB内存。echo 1073741824 > /sys/fs/cgroup/memory/my_group/memory.limit_in_bytes # Cgroups v1 echo 1073741824 > /sys/fs/cgroup/my_group/memory.max # Cgroups v2
-
memory.swappiness
: 控制使用swap的倾向。echo 0 > /sys/fs/cgroup/memory/my_group/memory.swappiness # Cgroups v1 echo 0 > /sys/fs/cgroup/my_group/memory.swap.max # Cgroups v2 (需要先启用swap controller)
-
-
I/O限制 (Cgroups v1):
-
blkio.throttle.read_bps_device
和blkio.throttle.write_bps_device
: 限制特定设备的读写速率(字节/秒)。需要指定设备的主设备号和次设备号。echo "8:0 1048576" > /sys/fs/cgroup/blkio/my_group/blkio.throttle.read_bps_device # 限制设备8:0的读取速率为1MB/s
-
-
-
将进程添加到Cgroup:
将进程ID (PID) 写入
tasks
文件。echo
> /sys/fs/cgroup/cpu/my_group/tasks # Cgroups v1 echo > /sys/fs/cgroup/my_group/cgroup.procs # Cgroups v2 可以使用
ps
命令找到进程的PID。 -
使用工具管理Cgroups:
除了手动配置,还可以使用
systemd
或libcgroup
提供的工具来管理Cgroups。systemd
通过.service
文件中的CPUAccounting
,MemoryAccounting
等选项来配置Cgroups。libcgroup
提供了一组命令行工具,如cgcreate
,cgset
,cgexec
等。 -
监控Cgroup:
可以通过读取Cgroup目录下的统计文件来监控资源使用情况。例如,
cpuacct.usage
(Cgroups v1) 或cpu.stat
(Cgroups v2) 可以查看CPU使用情况,memory.usage_in_bytes
可以查看内存使用情况。
Cgroups配置完成后,需要验证其是否生效。 可以编写一个简单的测试程序,例如一个无限循环的CPU密集型程序,或者一个不断分配内存的程序,然后将其添加到Cgroup中,观察其资源使用情况。 如果资源限制生效,那么该程序应该无法超出设定的限制。
Cgroups v1和v2的区别是什么?
Cgroups v1使用多个层级结构,每个子系统(如CPU、内存、I/O)都有自己的层级。 Cgroups v2使用单一层级结构,所有子系统共享同一个层级。 Cgroups v2的设计更加简洁和统一,但也带来了一些兼容性问题。
如何使用Systemd管理Cgroups?
Systemd集成了Cgroups管理,可以在Unit文件中使用
CPUAccounting=true,
MemoryAccounting=true等选项启用资源控制,并使用
CPUShares,
CPUQuota,
MemoryLimit等选项设置资源限制。 例如:
[Service] CPUAccounting=true MemoryAccounting=true CPUShares=512 MemoryLimit=1G
如何动态调整Cgroup的资源限制?
可以通过修改Cgroup目录下的配置文件来动态调整资源限制。例如,可以使用
echo命令修改
cpu.shares或
memory.limit_in_bytes的值。 需要注意的是,某些资源限制的调整可能会影响系统的稳定性,需要谨慎操作。










