运行时指标
Docker 统计信息
您可以使用docker stats
命令实时流式传输容器的
运行时指标。该命令支持 CPU、内存使用率、内存限制、
和网络 IO 指标。
以下是docker stats
命令
$ docker stats redis1 redis2
CONTAINER CPU % MEM USAGE / LIMIT MEM % NET I/O BLOCK I/O
redis1 0.07% 796 KB / 64 MB 1.21% 788 B / 648 B 3.568 MB / 512 KB
redis2 0.07% 2.746 MB / 64 MB 4.29% 1.266 KB / 648 B 12.4 MB / 0 B
这docker stats
参考
页面中提供了有关docker stats
命令。
控制组
Linux 容器依赖于控制组,这些控制组不仅跟踪进程组,还公开有关以下内容的指标 CPU、内存和数据块 I/O 使用率。您可以访问这些指标和 同时获取网络使用情况指标。这与“纯”LXC 有关 容器,以及 Docker 容器。
控制组通过伪文件系统公开。在 Modern Distributions 中,您可以
应该在/sys/fs/cgroup
.在该目录下,您
查看多个子目录,名为devices
,freezer
,blkio
等。
每个子目录实际上对应于不同的 cgroup 层次结构。
在较旧的系统上,控制组可能挂载在/cgroup
没有
不同的层次结构。在这种情况下,您不会看到子目录,
您会在该目录中看到一堆文件,可能还有一些目录
对应于现有容器。
要找出控制组的挂载位置,您可以运行:
$ grep cgroup /proc/mounts
枚举 cgroups
cgroups 的文件布局在 v1 和 v2 之间有很大不同。
如果/sys/fs/cgroup/cgroup.controllers
存在于您的系统上,那么您使用的是 v2,
否则,您使用的是 v1。
请参阅与您的 cgroup 版本对应的小节。
默认情况下,cgroup v2 用于以下分配:
- Fedora(自 31 年起)
- Debian GNU/Linux(自 11 起)
- Ubuntu(自 21.10 起)
cgroup v1
你可以看看/proc/cgroups
查看不同的控制组子系统
系统已知、它们所属的层次结构以及它们包含的组数。
您还可以查看/proc/<pid>/cgroup
查看进程的控制组
属于。控制组显示为相对于 的根的路径
层次结构挂载点。 表示尚未将进程分配给
group,而/
/lxc/pumpkin
指示该进程是
名为pumpkin
.
cgroup v2 版本
在 cgroup v2 主机上,/proc/cgroups
没有意义。
看/sys/fs/cgroup/cgroup.controllers
添加到可用的控制器中。
更改 cgroup 版本
更改 cgroup 版本需要重启整个系统。
在基于 systemd 的系统上,可以通过添加 cgroup v2 来启用systemd.unified_cgroup_hierarchy=1
添加到内核命令行。
要将 cgroup 版本恢复到 v1,您需要将systemd.unified_cgroup_hierarchy=0
相反。
如果grubby
命令在您的系统上可用(例如在 Fedora 上),可以按如下方式修改命令行:
$ sudo grubby --update-kernel=ALL --args="systemd.unified_cgroup_hierarchy=1"
如果grubby
命令不可用,请编辑GRUB_CMDLINE_LINUX
线路输入/etc/default/grub
然后运行sudo update-grub
.
在 cgroup v2 上运行 Docker
Docker 从 Docker 20.10 开始支持 cgroup v2。 在 cgroup v2 上运行 Docker 还需要满足以下条件:
- containerd:v1.4 或更高版本
- runc:v1.0.0-rc91 或更高版本
- 内核:v4.15 及以上版本(推荐 v5.2 及以上版本)
请注意,cgroup v2 模式的行为与 cgroup v1 模式略有不同:
- 默认的 cgroup 驱动程序 (
dockerd --exec-opt native.cgroupdriver
) 是systemd
在 v2 上,cgroupfs
在 v1 上。 - 默认的 cgroup 命名空间模式 (
docker run --cgroupns
) 是private
在 v2 上,host
在 v1 上。 - 这
docker run
标志--oom-kill-disable
和--kernel-memory
在 v2 上被丢弃。
查找给定容器的 cgroup
对于每个容器,在每个层次结构中创建一个 cgroup。上
使用旧版本的 LXC 用户空间工具的旧系统,名称为
cgroup 是容器的名称。使用较新的版本
的 LXC 工具中,cgroup 为lxc/<container_name>.
对于使用 cgroups 的 Docker 容器,容器名称为完整
容器的 ID 或长 ID。如果容器显示为 ae836c95b4c3
在docker ps
,则其长 ID 可能类似于ae836c95b4c3c9e9179e0e91015512da89fdec91612f63cebae57df9a5444c79
.您可以
查找docker inspect
或docker ps --no-trunc
.
将所有内容放在一起以查看 Docker 的内存指标 容器,请查看以下路径:
/sys/fs/cgroup/memory/docker/<longid>/
在 cgroup v1 上,cgroupfs
司机/sys/fs/cgroup/memory/system.slice/docker-<longid>.scope/
在 cgroup v1 上,systemd
司机/sys/fs/cgroup/docker/<longid>/
在 cgroup v2 上,cgroupfs
司机/sys/fs/cgroup/system.slice/docker-<longid>.scope/
在 cgroup v2 上,systemd
司机
来自 cgroups 的指标:内存、CPU、数据块 I/O
注意
本节尚未针对 cgroup v2 进行更新。 有关 cgroup v2 的更多信息,请参阅内核文档。
对于每个子系统(内存、CPU 和块 I/O),一个或 存在更多伪文件并包含统计信息。
内存指标:memory.stat
内存指标位于memory
cgroup 的内存
Control Group 会增加一点开销,因为它执行非常精细的
主机上的内存使用情况的核算。因此,许多发行版
选择默认不启用它。通常,要启用它,您所拥有的
要做的是添加一些内核命令行参数:cgroup_enable=memory swapaccount=1
.
指标位于伪文件中memory.stat
.
这是它的样子:
cache 11492564992
rss 1930993664
mapped_file 306728960
pgpgin 406632648
pgpgout 403355412
swap 0
pgfault 728281223
pgmajfault 1724
inactive_anon 46608384
active_anon 1884520448
inactive_file 7003344896
active_file 4489052160
unevictable 32768
hierarchical_memory_limit 9223372036854775807
hierarchical_memsw_limit 9223372036854775807
total_cache 11492564992
total_rss 1930993664
total_mapped_file 306728960
total_pgpgin 406632648
total_pgpgout 403355412
total_swap 0
total_pgfault 728281223
total_pgmajfault 1724
total_inactive_anon 46608384
total_active_anon 1884520448
total_inactive_file 7003344896
total_active_file 4489052160
total_unevictable 32768
上半部分(没有total_
前缀)包含相关的统计数据
到 cgroup 中的进程,不包括子 cgroup。下半场
(使用total_
prefix) 也包括 sub-cgroups 中。
某些指标是 “仪表” ,或可以增加或减少的值。例如swap
是 cgroup 成员使用的交换空间量。
其他一些是 “counters”,或者只能上升的值,因为
它们表示特定事件的发生次数。例如pgfault
指示自创建 cgroup 以来的页面错误数。
cache
- 此控制组的进程使用的内存量,可以是
与 Block 设备上的块精确关联。当您从 和 读取
写入磁盘上的文件,则此数量会增加。如果您使用
“传统”I/O (
open
,read
,write
sys调用)以及映射的文件 (使用mmap
).它还考虑了tmpfs
mounts 的 原因尚不清楚。 rss
- 与磁盘上的任何内容都不对应的内存量:stacks、 堆和匿名内存映射。
mapped_file
- 指示控制组中的进程映射的内存量。 它不会提供有关使用了多少内存的信息;它反而 告诉您它是如何使用的。
pgfault
,pgmajfault
- 指示 cgroup 的进程触发“页面
fault“和”major fault“分别是 Fault 的。当进程
访问其虚拟内存空间的一部分,该部分不存在或受保护。
如果进程有 bug 并尝试访问无效的
address (它会发送一个
SIGSEGV
信号,通常用著名的Segmentation fault
消息)。后者可能在进程读取 从已换出的内存区,或对应于映射的 file:在这种情况下,内核从磁盘加载页面,并让 CPU 完成内存访问。当进程写入 Copy-on-Write 内存区:同样,内核会抢占进程,复制 Memory 页面,并在进程自己的 页面。当内核实际需要读取数据时,会发生 “重大” 故障 从磁盘。当它只是复制一个现有页面,或者分配一个空页面时, 这是一个常规的(或“轻微的”)错误。 swap
- 此 cgroup 中的进程当前使用的交换量。
active_anon
,inactive_anon
- 内核已识别的匿名内存量分别为 active 和 inactive。“匿名” 内存是未链接到磁盘页面的内存。换句话说,这相当于 rss
counter 的 counter 进行验证。事实上,rss 计数器的定义是
active_anon
+inactive_anon
-tmpfs
(其中 tmpfs 是 内存已用tmpfs
此控制组挂载的文件系统)。现在 “Active” 和 “Inactive” 有什么区别?页面最初是 “active”;内核会定期扫描内存和标签 一些页面显示为 “inactive”。每当再次访问它们时,它们都会 立即重新标记为 “active”。当内核内存几乎不足时,并且 是时候换出磁盘了,内核会交换 “inactive” 页面。 active_file
,inactive_file
- 缓存内存,具有 active 和 inactive ,类似于 anon 内存
以上。确切的公式是
cache
=active_file
+inactive_file
+tmpfs
.内核用于在 active 和 inactive sets 与用于匿名内存的 set 不同, 但一般原则是一样的。当内核需要回收内存时, 从这个池中回收一个干净的 (=未修改的) 页面更便宜,因为它 可以立即回收(虽然匿名页面和脏/修改页面 需要先写入磁盘)。 unevictable
- 无法回收的内存量;一般来说,它占
已 “锁定” 的内存
mlock
.它经常被加密货币使用 框架来确保密钥和其他敏感材料永远不会 换出到磁盘。 memory_limit
,memsw_limit
- 这些并不是真正的指标,而是提醒您对此施加的限制 cgroup 的第一个表示可以的最大物理内存量 由该控制组的进程使用;第二个表示 最大 RAM+swap 数量。
考虑页面缓存中的内存非常复杂。如果两个 不同控制组中的进程都读取同一个文件 (最终依赖于磁盘上的相同块),相应的 内存费用在控制组之间分配。这很好,但是 这也意味着,当 cgroup 终止时,它可能会增加 另一个 cgroup 的内存使用率,因为它们不会分摊成本 对于那些内存页。
CPU 指标:cpuacct.stat
现在我们已经介绍了内存指标,其他所有内容都已介绍
相比之下很简单。CPU 指标位于cpuacct
控制器。
对于每个容器,一个伪文件cpuacct.stat
包含 CPU 使用率
由容器的进程累积,分解为user
和system
时间。区别在于:
user
time 是进程直接控制 CPU 的时间量, 执行流程代码。system
time 是内核代表 执行系统调用的时间 过程。
这些时间以 1/100 秒的刻度表示,也称为“用户
jiffies”。有USER_HZ
每秒 “jiffies”,在 x86 系统上,USER_HZ
是 100。从历史上看,这正好映射到 scheduler 的数量
“ticks”,但更高的频率调度和无滴答内核使
勾号无关紧要。
数据块 I/O 指标
块 I/O 计入blkio
控制器。
不同的指标分散在不同的文件中。虽然您可以
在内核文档的 blkio-controller 文件中找到深入的详细信息,这里是大多数的简短列表
相关:
blkio.sectors
- 包含进程读取和写入的 512 字节扇区数 cgroup 的成员,逐个设备。读取和写入合并到一个 计数器。
blkio.io_service_bytes
- 指示 cgroup 读取和写入的字节数。它有 4 个 counters 的 st,因为对于每个设备,它区分 同步与异步 I/O,以及读取与写入。
blkio.io_serviced
- 执行的 I/O作数,无论其大小如何。它还具有 每个设备 4 个计数器。
blkio.io_queued
- 指示当前为此 cgroup 排队的 I/O作数。在 换句话说,如果 cgroup 没有执行任何 I/O,则为 0。相反的是 不对。换句话说,如果没有 I/O 排队,这并不意味着 cgroup 处于空闲状态(I/O 方面)。它可以在 否则为静止设备,因此可以立即处理它们, 无需排队。此外,虽然弄清楚哪个 cgroup 是 对 I/O 子系统施加压力,请记住它是相对的 数量。即使进程组不执行更多的 I/O,其队列大小也可以 增加只是因为设备负载因其他设备而增加。
网络指标
网络指标不直接由控制组公开。有一个
对此的一个很好的解释:上下文中存在网络接口
的网络命名空间。内核可能会累积指标
关于一组进程发送和接收的数据包和字节数,但
这些指标不会很有用。您需要每个接口的指标
(因为本地发生的流量lo
interface 并不算数)。但是,由于单个 cgroup 中的进程
可以属于多个网络命名空间,则这些指标会更难
解释:多个网络命名空间意味着多个lo
接口, 可能多个eth0
接口等;所以这就是为什么没有简单的方法来收集网络
指标与控制组。
相反,您可以从其他来源收集网络指标。
iptables
iptables 的 一个接口)可以做一些严肃的会计工作。
例如,您可以设置一个规则来考虑出站 HTTP Web 服务器上的流量:
$ iptables -I OUTPUT -p tcp --sport 80
没有-j
或-g
旗
因此,规则只对匹配的数据包进行计数,并转到以下内容
统治。
稍后,您可以使用以下命令检查计数器的值:
$ iptables -nxvL OUTPUT
技术-n
不是必需的,但它
阻止 iptables 进行 DNS 反向查找,这可能是
在这种情况下毫无用处。
计数器包括数据包和字节。如果要为
容器流量,您可以执行for
loop 添加两个iptables
规则每
容器 IP 地址(每个方向一个),在FORWARD
链。这仅计量通过 NAT 的流量
层;您还需要添加通过 Userland 的流量
代理。
然后,您需要定期检查这些计数器。如果你
碰巧使用collectd
,有一个很好的插件可以自动化 iptables 计数器收集。
接口级计数器
由于每个容器都有一个虚拟以太网接口,因此您可能需要检查
直接访问此接口的 TX 和 RX 计数器。每个容器都关联
添加到主机中的虚拟以太网接口,其名称类似于vethKk8Zqi
.
不幸的是,弄清楚哪个接口对应于哪个容器,
难。
但就目前而言,最好的方法是从 容器。为此,您可以从主机运行可执行文件 使用 IP-NETNS 的容器的网络命名空间中的环境 魔法。
这ip-netns exec
命令允许您执行任何
程序(存在于主机系统中)中的任何网络命名空间
对当前进程可见。这意味着您的房东可以
输入容器的网络命名空间,但输入容器
无法访问主机或其他对等容器。
不过,容器可以与它们的子容器进行交互。
该命令的确切格式为:
$ ip netns exec <nsname> <command...>
例如:
$ ip netns exec mycontainer netstat -i
ip netns
查找mycontainer
Container by
使用命名空间伪文件。每个进程都属于一个网络
namespace、一个 PID namespace、一个mnt
Namespace
等,这些命名空间在/proc/<pid>/ns/
.例如,网络
PID 42 的命名空间由伪文件物化/proc/42/ns/net
.
当您运行ip netns exec mycontainer ...
它
预计/var/run/netns/mycontainer
成为其中之一
那些伪文件。(接受符号链接。
换句话说,要在 容器,我们需要:
- 找出我们想要调查的容器中任何进程的 PID;
- 创建符号链接
/var/run/netns/<somename>
自/proc/<thepid>/ns/net
- 执行
ip netns exec <somename> ....
查看枚举 Cgroups 了解如何查找
要测量其网络使用情况的容器内进程的 cgroup。
从那里,您可以检查名为tasks
,其中包含
cgroup(因此,在容器中)。选择任意一个 PID。
将所有内容放在一起,如果容器的 “short ID” 保存在
环境变量$CID
,那么您可以这样做:
$ TASKS=/sys/fs/cgroup/devices/docker/$CID*/tasks
$ PID=$(head -n 1 $TASKS)
$ mkdir -p /var/run/netns
$ ln -sf /proc/$PID/ns/net /var/run/netns/$CID
$ ip netns exec $CID netstat -i
高性能指标收集的提示
每次要更新指标时运行新进程 (相对)昂贵。如果您想在较高 分辨率和/或大量容器(想想 1000 个 containers 的 intent 上),您不希望每个 fork 新进程 时间。
下面介绍如何从单个进程收集指标。您需要
用 C 语言(或任何允许你编写
低级系统调用)。您需要使用一个特殊的系统调用setns()
,这允许当前进程进入任何
arbitrary 命名空间。但是,它需要一个打开的文件描述符,以
命名空间伪文件(请记住:这是/proc/<pid>/ns/net
).
但是,有一个问题:您不得使此文件描述符保持打开状态。 如果这样做,当控制组的最后一个进程退出时, 命名空间未销毁,并且其网络资源(如 容器的虚拟接口)永远存在(或直到 关闭该文件描述符)。
正确的方法是跟踪每个 container,并每次重新打开 namespace 伪文件。
在容器退出时收集指标
有时,您并不关心实时指标收集,但是当 容器退出时,您想知道它有多少 CPU、内存等 使用。
Docker 使这变得困难,因为它依赖于lxc-start
,它小心翼翼
自行清理。定期收集指标通常更容易
intervals,这就是collectd
LXC 插件有效。
但是,如果您仍然想在容器停止时收集统计数据, 方法如下:
对于每个容器,启动一个收集进程,并将其移动到 要通过将 PID 写入任务来监控的控制组 cgroup 的文件。收集过程应定期重新读取 tasks 文件来检查它是否是 Control Group 的最后一个进程。 (如果您还希望按照 上一节中,您还应将流程移动到相应的 network 命名空间。
当容器退出时,lxc-start
尝试
删除控制组。它失败了,因为控制组是
仍在使用;但这没关系。您的进程现在应该检测到它是
组中唯一剩下的。现在是收集的合适时机
您需要的所有指标!
最后,您的进程应将自身移回根控制组
并删除容器控件组。要删除控制组,只需rmdir
其目录。这与rmdir
一个目录,因为它仍然包含文件;但
请记住,这是一个伪文件系统,因此通常的规则不适用。
清理完成后,收集过程可以安全退出。