当前位置: 首页 > 面试题库 >

“使用的内存”指标:Go工具pprof与docker统计信息

越朗
2023-03-14
问题内容

我编写了在每个Docker容器中运行的golang应用程序。它使用protobufs通过tcp和udp相互通信,我使用Hashicorp的成员列表库来发现网络中的每个容器。在docker
stats上,我看到内存使用率呈线性增加,因此我尝试查找应用程序中的任何泄漏。

由于它是一个不断运行的应用程序,因此请使用http pprof来检查任何一个容器中的实时应用程序。我看到即使docker
stats线性增加,runtime.MemStats.sys也保持不变。我的–inuse_space约为1MB,当然–
alloc_space随时间不断增加。这是alloc_space的示例:

root@n3:/app# go tool pprof --alloc_space main http://localhost:8080/debug/pprof/heap                                                                                                                       
Fetching profile from http://localhost:8080/debug/pprof/heap
Saved profile in /root/pprof/pprof.main.localhost:8080.alloc_objects.alloc_space.005.pb.gz
Entering interactive mode (type "help" for commands)
(pprof) top --cum
1024.11kB of 10298.19kB total ( 9.94%)
Dropped 8 nodes (cum <= 51.49kB)
Showing top 10 nodes out of 34 (cum >= 1536.07kB)
      flat  flat%   sum%        cum   cum%
         0     0%     0% 10298.19kB   100%  runtime.goexit
         0     0%     0%  6144.48kB 59.67%  main.Listener
         0     0%     0%  3072.20kB 29.83%  github.com/golang/protobuf/proto.Unmarshal
  512.10kB  4.97%  4.97%  3072.20kB 29.83%  github.com/golang/protobuf/proto.UnmarshalMerge
         0     0%  4.97%  2560.17kB 24.86%  github.com/hashicorp/memberlist.(*Memberlist).triggerFunc
         0     0%  4.97%  2560.10kB 24.86%  github.com/golang/protobuf/proto.(*Buffer).Unmarshal
         0     0%  4.97%  2560.10kB 24.86%  github.com/golang/protobuf/proto.(*Buffer).dec_struct_message
         0     0%  4.97%  2560.10kB 24.86%  github.com/golang/protobuf/proto.(*Buffer).unmarshalType
  512.01kB  4.97%  9.94%  2048.23kB 19.89%  main.SaveAsFile
         0     0%  9.94%  1536.07kB 14.92%  reflect.New
(pprof) list main.Listener
Total: 10.06MB
ROUTINE ======================== main.Listener in /app/listener.go
         0        6MB (flat, cum) 59.67% of Total
         .          .     24:   l.SetReadBuffer(MaxDatagramSize)
         .          .     25:   defer l.Close()
         .          .     26:   m := new(NewMsg)
         .          .     27:   b := make([]byte, MaxDatagramSize)
         .          .     28:   for {
         .   512.02kB     29:       n, src, err := l.ReadFromUDP(b)
         .          .     30:       if err != nil {
         .          .     31:           log.Fatal("ReadFromUDP failed:", err)
         .          .     32:       }
         .   512.02kB     33:       log.Println(n, "bytes read from", src)
         .          .     34:       //TODO remove later. For testing Fetcher only
         .          .     35:       if rand.Intn(100) < MCastDropPercent {
         .          .     36:           continue
         .          .     37:       }
         .        3MB     38:       err = proto.Unmarshal(b[:n], m)
         .          .     39:       if err != nil {
         .          .     40:           log.Fatal("protobuf Unmarshal failed", err)
         .          .     41:       }
         .          .     42:       id := m.GetHead().GetMsgId()
         .          .     43:       log.Println("CONFIG-UPDATE-RECEIVED { \"update_id\" =", id, "}")
         .          .     44:       //TODO check whether value already exists in store?
         .          .     45:       store.Add(id)
         .        2MB     46:       SaveAsFile(id, b[:n], StoreDir)
         .          .     47:       m.Reset()
         .          .     48:   }
         .          .     49:}
(pprof)

我已经能够使用http://:8080 / debug / pprof / goroutine?debug = 1验证是否没有goroutine泄漏发生

请评论为什么docker stats显示不同的图片(线性增加内存)

CONTAINER           CPU %               MEM USAGE / LIMIT       MEM %               NET I/O               BLOCK I/O           PIDS
n3                  0.13%               19.73 MiB / 31.36 GiB   0.06%               595 kB / 806 B        0 B / 73.73 kB      14

如果我将其运行一整夜,则此内存会膨胀到250MB左右。我的运行时间没有超过此时间,但我认为这应该已经达到平稳状态,而不是线性增加


问题答案:

docker
stats显示cgroup的内存使用情况统计信息。(请参阅:https
:
//docs.docker.com/engine/admin/runmetrics/)

如果您阅读“过时但有用的”文档(https://www.kernel.org/doc/Documentation/cgroup-v1/memory.txt),则会显示

5.5用法_in_bytes

为了提高效率,与其他内核组件一样,内存cgroup使用一些优化来避免不必要的缓存行错误共享。usage_in_bytes受此方法的影响,并且未显示内存(和交换)使用情况的“确切”值,它是有效访问的模糊值。(当然,在必要时,它是同步的。)如果您想知道更精确的内存使用情况,则应在memory.stat(请参阅5.2)中使用RSS
+ CACHE(+ SWAP)值。

页面缓存和RES包含在内存usage_in_bytes编号中。因此,如果容器具有文件I /
O,则内存使用情况统计将增加。但是,对于一个容器,如果使用量达到该最大限制,它将回收一些未使用的内存。因此,当我向容器添加内存限制时,我可以观察到达到该限制时会回收并使用内存。除非没有要回收的内存并且发生OOM错误,否则不会终止容器进程。对于任何关心docker
stats中显示的数字的人,简单的方法是在以下位置检查cgroups中可用的详细统计信息:/ sys / fs / cgroup / memory /
docker //这将详细显示内存中的所有内存指标。统计信息或其他memory。*文件。

如果要在“ docker
run”命令中限制docker容器使用的资源,可以通过参考以下内容进行限制:https
:
//docs.docker.com/engine/admin/resource_constraints/

由于我使用的是docker-compose,因此我在docker-compose.yml文件中要限制的服务下添加了一行:

mem_limit:32m

其中m代表兆字节。



 类似资料:
  • 值得一提的是,我已经使用jconsole来监视进程,一切看起来都很好。 如果docker容器的内容不需要,为什么要使用所有可用的内存?我以为docker会比MyApp占用更多的内存...不是100%的可用内存。

  • 问题内容: 我有一个要配置的现有http服务器。我已经将导入文件包括在内,并且已经在运行http服务器: 当我尝试访问http:// localhost:8080 / debug / pprof /时, 我得到了。 这就是在本地计算机上使用时得到的: 与远程客户端相同: 问题答案: 文档中未明确提及它,而仅将其处理程序注册到。 从来源: 如果您未使用默认的多路复用器,则只需向您要使用的任何多路复用

  • 我的spark应用程序正在我们内部实验室的远程机器上运行。为了分析远程应用程序的内存消耗,通过使用本地机器的“附加模式”(在jpenable的帮助下)将远程应用程序pid附加到JProfiler。 将远程应用程序连接到本地机器中的JProfiler后,JProfiler仅显示远程机器内存消耗的5%,但当我们在远程Centos机器上运行“top”命令时,“top”命令显示内存消耗的72%。我无法找到

  • 我们可以使用go tool pprof命令来交互式的访问概要文件的内容。命令将会分析指定的概要文件,并会根据我们的要求为我们提供高可读性的输出信息。 在Go语言中,我们可以通过标准库的代码包runtime和runtime/pprof中的程序来生成三种包含实时性数据的概要文件,分别是CPU概要文件、内存概要文件和程序阻塞概要文件。下面我们先来分别介绍用于生成这三种概要文件的API的用法。 CPU概要

  • 主要内容:安装第三方图形化显式分析数据工具(Graphviz),安装第三方性能分析来分析代码包,性能分析代码Go语言工具链中的 go pprof 可以帮助开发者快速分析及定位各种性能问题,如 CPU 消耗、内存分配及阻塞分析。 性能分析首先需要使用 runtime.pprof 包嵌入到待分析程序的入口和结束处。runtime.pprof 包在运行时对程序进行每秒 100 次的采样,最少采样 1 秒。然后将生成的数据输出,让开发者写入文件或者其他媒介上进行分析。 go pprof 工具链配合 Gr

  • 统计指标 释义 访问量(IP) 一天之内您网站的独立访问IP数 页面浏览量(PV) 即PageView值,用户每打开1个网站页面,记录1个PV 用户多次打开同一页面PV累计多次 独立访客数(UV) UV即UniqueVistor,独立访客数,指1天内访问某站点的人数,以cookie为依据 1天内同一访客的多次访问只计为1个访客;不同浏览器访问累计+1;一旦清除浏览器缓存,UV将会刷新 新访客(NE