V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
The Go Programming Language
http://golang.org/
Go Playground
Go Projects
Revel Web Framework
Nitroethane
V2EX  ›  Go 编程语言

flate.NewWriter 和 os.(*File).readdir 内存占用奇高

  •  1
     
  •   Nitroethane · 2021-09-09 19:47:12 +08:00 · 1275 次点击
    这是一个创建于 1170 天前的主题,其中的信息可能已经有所发展或是发生改变。
    func (a *Agent) readFileEvents(writer *io.PipeWriter) {
        defer writer.Close()
        w := bufio.NewWriter(writer)
        defer w.Flush()
        ioBuff := make([]byte, 131072)
        log := a.logger.WithField("component", "readFileEvents")
        var buff bytes.Buffer
        vw, err := bsonrw.NewBSONValueWriter(&buff)
        if err != nil {
            a.logger.WithFields(logrus.Fields{
                "error": err.Error(),
            }).Error("Failed to create bson value writer")
            return
        }
        encoder, err := bson.NewEncoder(vw)
        if err != nil {
            a.logger.WithFields(logrus.Fields{
                "error": err.Error(),
            }).Error("Failed to create bson encoder")
            return
        }
    
        var gzBuff bytes.Buffer
        zw, _ := flate.NewWriter(&gzBuff, 3)
        handleEvent := func(event *fsnotify.Event) {
            a.logger.Debug("handle event")
            gzBuff.Reset()
            zw.Reset(&gzBuff)
            var entry *EventInfo
            a.metrics.eventsCounter.WithLabelValues(event.Op.String()).Inc()
            log.WithFields(logrus.Fields{
                "filename": event.Name,
                "type":     event.Op.String(),
            }).Debug("event")
    
            defer buff.Reset()
    
            fileInfo, err := os.Stat(event.Name)
            if err != nil {
                log.WithFields(logrus.Fields{
                    "filename": event.Name,
                    "error":    err.Error(),
                }).Debug("Failed to get file info")
                return
            }
            if fileInfo.Mode()&fs.ModeSymlink == fs.ModeSymlink {
                return
            }
    
            result := a.fileFilter(event.Name)
            if !result {
                return
            }
            file, err := os.Open(event.Name)
            if err != nil {
                log.WithFields(logrus.Fields{
                    "error":    err.Error(),
                    "filename": event.Name,
                }).Error("Failed to open file")
                return
            }
            defer file.Close()
    
            entry = eventInfoPool.Get().(*EventInfo)
            defer eventInfoPool.Put(entry)
            entry.ClientId = a.uuid
            entry.FilePath = event.Name
    
            if _, err = io.CopyBuffer(zw, file, ioBuff); err != nil {
                a.logger.WithFields(logrus.Fields{
                    "error":    err.Error(),
                    "filename": event.Name,
                }).Error("Failed to read file")
            }
            if err := zw.Close(); err != nil {
                log.WithFields(logrus.Fields{
                    "error": err.Error(),
                }).Error("Failed to compress file")
                return
            }
            entry.FileContent = gzBuff.Bytes()
    
            err = encoder.Encode(entry)
            if err != nil {
                a.logger.WithFields(logrus.Fields{
                    "error":    err.Error(),
                    "filepath": entry.FilePath,
                }).Error("Failed to serialize object")
                return
            }
    
            if _, err = w.Write(buff.Bytes()); err != nil {
                a.logger.WithFields(logrus.Fields{
                    "error": err.Error(),
                }).Error("Failed to transfer data")
                return
            }
    
            a.metrics.eventsSentCounter.WithLabelValues(event.Op.String()).Inc()
            a.metrics.fileCounter.Inc()
        }
        for {
            select {
            case event, ok := <-a.watcherChan:
                if !ok {
                    return
                }
                handleEvent(&event)
            case <-a.ctx.Done():
                return
            }
        }
    }
    

    使用 pprof 发现 flate.NewWriter 方法消耗了大量内存。 这张图是 inuse_space:
    inuse_space
    这张图是 alloc_space:
    alloc_space
    这张是 ReadDir: alloc_space of ReadDir

    顺便吐槽下 os.(*File).ReadDir 内存占用也很离谱。 有没有大佬提供下优化思路 qaq

    12 条回复    2021-09-11 02:36:33 +08:00
    darrh00
        1
    darrh00  
       2021-09-09 20:52:44 +08:00
    大致看了一下,你这里的 entry 完全没有必要用 sync.Pool 池吧,应该可以直接分配在栈上,不会有什么 GC 压力,反而你这个 EventInfo 带有个大的属性 FileContent 的引用,你把 entry 放进池中的时候并没有把 FileContent 引用清掉,导致放进池中的 entry 仍旧引用着 FileContent 这种可能很大的[]byte, 导致 GC 无法回收。
    lysS
        2
    lysS  
       2021-09-09 21:14:38 +08:00
    这个 profile 不是 CPU 的图嘛?
    Nitroethane
        3
    Nitroethane  
    OP
       2021-09-09 22:37:27 +08:00
    @darrh00 #1 对,entry 没必要用 sync.Pool 。不用 sync.Pool 的话问题依然存在。刚在 handleEvent 函数里加了一行,退出函数前执行 w.Flush(),也没用。
    看了下代码,对 gzBuff 底层数组引用的地方只有 entry.FileContent 和 buff,但是函数开始时都执行 Reset 了,不应该还占用呀


    @lysS #2 这么明显的内存单位怎么能是 CPU 的图🐶
    darrh00
        4
    darrh00  
       2021-09-09 22:49:11 +08:00
    @Nitroethane

    buff.Reset 是复位自己啊,FileContent 又不会 reset,看看以下会输出什么?

    func f() {
    var buf bytes.Buffer
    io.WriteString(&buf, "Hello")
    r := buf.Bytes()
    buf.Reset()
    fmt.Println(string(r))
    }
    Nitroethane
        5
    Nitroethane  
    OP
       2021-09-09 23:01:37 +08:00
    @darrh00 #4 我这句话是有问题…… 不过不用 sync.Pool 的话问题还存在……
    GopherDaily
        6
    GopherDaily  
       2021-09-11 00:44:54 +08:00
    @Nitroethane 你的 readFileEvents 是不是被调用了很多次,导致 writer 被初始化了很多次
    Nitroethane
        7
    Nitroethane  
    OP
       2021-09-11 01:28:44 +08:00
    @GopherDaily #6 不是,readFileEvents 方法是长期运行的,被调用很多次的是 handleEvent 函数。
    其实问题出在 gzBuff 和 zw 两个变量上。这两个变量的生命周期和 readFileEvents 方法是相同的。假如随着程序的运行,要处理的文件越来越大,那么 gzBuff 和 zw 这两个变量的底层 byte slice 也会越来越大,而且不会被 GC 回收,byte slice 也不会自动收缩。所以随着运行时间内存使用量会持续增长。
    Nitroethane
        8
    Nitroethane  
    OP
       2021-09-11 01:40:41 +08:00
    重构了下 handleEvent 函数。这是根据压测结果来看目前性能最好的状态:

    下面是三次压测结果,测试 5000 个文件,每个文件大小在 1M 以内。第一次结果是 bytes.Buffer 和 flate.Writer 都不使用 sync.Pool ;第二次压测结果是 bytes.Buffer 使用 Pool,flate.Writer 不使用;第三次是两个都使用 Pool 。

    还有一个优化点是使用 bson.Marshal 方法序列化结构体。因为对这个库不是很熟悉,用了 Encoder 之后性能直接回到解放前。还需要再研究下
    Nitroethane
        9
    Nitroethane  
    OP
       2021-09-11 01:44:10 +08:00
    其实最优解应该是根据文件大小选择最合适的 bytes.Buffer,但是 sync.Pool 不支持这种操作。如果自己手动先 get,判断 buffer 大小再 put 的话,感觉会影响 GC 导致更严重的性能问题
    Nitroethane
        10
    Nitroethane  
    OP
       2021-09-11 02:02:57 +08:00
    @Nitroethane #8 突然发现有个致命 bug,不应该在 compressFile 函数里就把 buff 给 Put,应该在 handleEvent 的 return 语句前面用 defer 给 Put 掉
    Nitroethane
        11
    Nitroethane  
    OP
       2021-09-11 02:18:23 +08:00
    用了 bson 库封装的 BSONValueWriterPool 对象池之后直接起飞,内存占用直接降到 1.5M 以下,而且内存分配操作次数的平均值为 9 到 10 次。
    Nitroethane
        12
    Nitroethane  
    OP
       2021-09-11 02:36:33 +08:00
    @Nitroethane #11 还有个问题,bsonEncode 里的 buff 不能在当前函数 Put,要在 readFileEvents 里把数据发送到 pipe 之后再 Put 。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2772 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 25ms · UTC 11:48 · PVG 19:48 · LAX 03:48 · JFK 06:48
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.