首页 > 代码库 > Layer的内存泄露问题分析报告

Layer的内存泄露问题分析报告

【问题描述】

home应用在运行monkey测试6个小时候,Native Heap增长到200MB,怀疑内存泄露。

我们可以动过dumpsys查看Native Heap的大小:

$adb shell  dumpsys meminfo com.miui.home
Applications Memory Usage (kB):
Uptime: 12929068 Realtime: 12929060

** MEMINFO in pid 1393 [com.miui.home] **
                   Pss  Private  Private  Swapped     Heap     Heap     Heap
                 Total    Dirty    Clean    Dirty     Size    Alloc     Free
                ------   ------   ------   ------   ------   ------   ------
  Native Heap        0        0        0        0    16998    16998    19865
  Dalvik Heap    31437    31132        0        0    49618    43555     6063
 Dalvik Other     1164     1164        0        0                           
        Stack      192      192        0        0                           
    Other dev     4348     2536        4        0                           
     .so mmap     1118      360       28        0                           
    .apk mmap      145        0        0        0                
    ...

每个应用的Native Heap占用量都不一样,但一般是10MB量级的,如果超过100MB,那很可能就是泄露了。

 

【分析步骤】

用monkey脚本复现问题:

adb shell monkey -v -v -p com.miui.home --throttle 200 --pct-touch 20 --pct-motion 25 --pct-nav 20 --pct-majornav 15 --pct-appswitch 5 --pct-anyevent 15 --pct-trackball 0 --pct-syskeys 0 --ignore-crashes --monitor-native-crashes --bugreport 5000000 logcat_file=logcat.txt >log1555.txt

在跑monkey的同时,在手机中运行shell命令,实时查看Native Heap的增长情况:

# while true then
do
date
dumpsys meminfo com.miui.home |grep "Native Heap:"
sleep 60
done

这个脚本的意思是每分钟打印一次当前时间及home应用的Native Heap大小。

跑13个小时后摘出每个小时的Native Heap大小,得出如下列表:

Tue Jan  5 16:12:53 CST 2016
         Native Heap:    13336
Tue Jan  5 17:13:00 CST 2016
         Native Heap:    17256
Tue Jan  5 18:13:35 CST 2016
         Native Heap:    21476
Tue Jan  5 19:13:09 CST 2016
         Native Heap:    25836
Tue Jan  5 20:13:56 CST 2016me
         Native Heap:    30176
Tue Jan  5 21:13:31 CST 2016
         Native Heap:    34836
Tue Jan  5 22:13:07 CST 2016
         Native Heap:    38564
Tue Jan  5 23:13:44 CST 2016
         Native Heap:    42948
Wed Jan  6 00:13:20 CST 2016
         Native Heap:    47216
Wed Jan  6 01:13:57 CST 2016
         Native Heap:    50720
Wed Jan  6 02:14:34 CST 2016
         Native Heap:    55288
Wed Jan  6 03:14:11 CST 2016
         Native Heap:    59360
Wed Jan  6 04:14:49 CST 2016
         Native Heap:    63648
Wed Jan  6 05:15:26 CST 2016
         Native Heap:    67648
Wed Jan  6 05:39:41 CST 2016
         Native Heap:    69440

从上面列表可以看出Native Heap在稳步增长,由此可以看出,确实存在泄露。

而且可以判断可能是基础模块、基础操作有泄露,很可能手动测试就能测出。

 

将shell脚本的sleep时间缩短为10秒,然后手动操作home界面,发现每次滑动屏幕作左右屏切换时,就会泄露。

进一步通过多种尝试,发现是桌面上存在文件夹图标时,每次左右滑动屏幕必现泄露,而只有应用图标时,则不会泄露。

有了必现路径以后,就可以加log调试了。

 

libc的malloc有debug功能,只需要改如下代码:

// The value of libc.debug.malloc.
#if !defined(LIBC_STATIC)
static int g_malloc_debug_level = 2;  /*0;*/
#endif

将g_malloc_debug_level从0改成2后,重新生成libc.so和libc_malloc_debug_leak.so后push到手机并重启。

重启后系统中的malloc就会是带有debug功能的malloc了,有啥区别呢?代码如下:

extern "C" void* leak_malloc(size_t bytes) {
    if (DebugCallsDisabled()) {
        return g_malloc_dispatch->malloc(bytes);
    }

    // allocate enough space infront of the allocation to store the pointer for
    // the alloc structure. This will making free‘ing the structer really fast!

    // 1. allocate enough memory and include our header
    // 2. set the base pointer to be right after our header

    size_t size = bytes + sizeof(AllocationEntry);
    if (size < bytes) { // Overflow.
        errno = ENOMEM;
        return NULL;
    }

    void* base = g_malloc_dispatch->malloc(size);
    if (base != NULL) {
        uintptr_t backtrace[BACKTRACE_SIZE];
        size_t numEntries = GET_BACKTRACE(backtrace, BACKTRACE_SIZE);

        AllocationEntry* header = reinterpret_cast<AllocationEntry*>(base);
        header->entry = record_backtrace(backtrace, numEntries, bytes);
        header->guard = GUARD;

        // now increment base to point to after our header.
        // this should just work since our header is 8 bytes.
        base = reinterpret_cast<AllocationEntry*>(base) + 1;
    }

    return base;
}

从代码中可以看出,memleak版本的malloc,再申请内存的时候,会保存当前调用栈。

也就是说每一个malloc都会对应一个调用栈,这样我们后续就可以知道泄露的内存是从哪段代码里申请的。

但这种方式有一个问题,就是保存调用栈本身很消耗内存和CPU资源。

而我们系统中malloc/free的调用是非常频繁(每分钟几十万次)的,

所以打开这个debug功能后,系统会非常卡,甚至会出现ANR等一系列系统问题。

所以这个debug功能的实用性不是很强。

 

好在我们这个问题有必现路径,所以不需要运行太长时间。

打开调试开关,链接eclipse,操作home几分钟后用ddms的native heap的dump功能,

查出有一个从libhwui.so调用的malloc占用的特别多。

但程序无法运行太长时间,加上调用栈和so对不上(不知道什么原因),所以只能怀疑是这个libhwui.so库有泄露。

 

我们关注的只是home应用,而打开libc的debug开关后,会影响系统里的所有进程,所以这种调试方式有很多不必要的资源浪费。

好在我们有INJECT工具,可以只针对特定的进程加调试code。

 

关于INJECT:

1、每个进程都会共享so库的code段,但数据段是各自有一个备份。

比如应用A和应用B都会共享libc的malloc函数,但g_malloc_debug_level变量,他们有各自的一个备份。

2、每个模块调用外部模块的函数时,会从一个叫got表的数据区取得目标函数的地址,然后跳转过去的。

got表的每个表项都存有一个外部函数的地址,是一一对应的。而进程启动过程中linker加载动态库时,为每个动态库填写他们的got表。

比如libandroid_runtime.so和libcutils.so都有各自的got表,got表中对应malloc函数的表项里存放有malloc函数的实际地址。

malloc函数的实际地址是linker加载libc.so后确定的,然后再加载libcutils.so时,将malloc函数的实际地址值填写到libc.so的got表中,malloc对应的表项里。

3、修改代码会影响系统中所有进程,但修改got表只影响单个进程。甚至只影响单个进程的单个模块。

比如我们把A进程的libcutils.so的got表中malloc函数的跳转地址改掉,那只会影响libcutils.so中调用的malloc,libandroid_runtime.so中调用的malloc则不会受影响。

4、我们可以自己定义一个inject_malloc,里面可以加一些调试code,如打印LR寄存器,打印调用栈等,然后再调用malloc。

如:

extern "C" void* inject_malloc(size_t bytes){
    GET_LINK_REGISTER(_lr);
    void* ptr;
    ptr = malloc(bytes);
    LOGD("malloc ptr=%p,size=%08lld,lr=%p",ptr,(unsigned long long)bytes,(void*)_lr);
    return ptr;
}

extern "C" void inject_free(void* p){
    if(p) {
        LOGD("free   ptr=%p",p);
    }
    free(p);
}

由于还不能确定到底是哪个so库泄露,

所以先将home应用加载的所有so库的got表中的malloc和free的跳转地址,改成自定义的inject_malloc/inject_free,

并在自定义的函数里打印如上的LOG,其中malloc函数中,除了要打印buffer地址和大小外,还会打印LR寄存器的值。

这样我们就能确定是从哪个库里调用了malloc。

...
36037:01-07 10:11:25.662  9388  9437 D INJECT  : malloc ptr=0xa7e84800,size=00008196,lr=0xb5d9260d
36038:01-07 10:11:25.663  9388  9437 D INJECT  : free   ptr=0x9934fc00
36041:01-07 10:11:25.664  9388  9388 D INJECT  : malloc ptr=0x99372c00,size=00004100,lr=0xb5d926af
36044:01-07 10:11:25.668  9388  9388 D INJECT  : malloc ptr=0x99376400,size=00004100,lr=0xb5d926af
36053:01-07 10:11:25.669  9388  9437 D INJECT  : free   ptr=0xa7e84800
36064:01-07 10:11:25.684  9388  9437 D INJECT  : free   ptr=0x99377800
36093:01-07 10:11:25.703  9388  9437 D INJECT  : free   ptr=0x9936f000
36132:01-07 10:11:25.726  9388  9437 D INJECT  : free   ptr=0x99378c00
36165:01-07 10:11:25.748  9388  9437 D INJECT  : free   ptr=0x99298800
36198:01-07 10:11:25.767  9388  9437 D INJECT  : malloc ptr=0x99298800,size=00004100,lr=0xb5d926af
36208:01-07 10:11:25.782  9388  9437 D INJECT  : malloc ptr=0xa7e84800,size=00008196,lr=0xb5d9260d
...

复现问题,得到如上的log后除去成对出现的malloc和free,如上面的红色部分。

这样剩下的只有malloc,没有free的就是泄露的buffer了。

 

虽然只有home应用打印log,但数据两还是很庞大的,得用脚本或程序解析这个log。

我这里是用程序解析,解析后的结论是,95%以上没free的malloc都有如下共同点:

1、size大小为4100,

2、LR为0xb5d926af

通过map表,可以查到0xb5d926af是libhwui.so的code段,因此确定libhwui.so中有泄露。

 

下一步INJECT只需要修改libhwui.so的malloc/free对应的跳转地址即可。

由于log量进一步减少,所以我们可以在malloc/free时多加一些调试code,比如调用栈:

extern "C" void* inject_malloc(size_t bytes){
    GET_LINK_REGISTER(_lr);
    void* ptr;
    ptr = malloc(bytes);
    LOGD("malloc ptr=%p,size=%08lld,lr=%p",ptr,(unsigned long long)bytes,(void*)_lr);
    if(bytes == 4100) {
         android::CallStack stack(LOG_TAG,3);
    }
    return ptr;
}

同样,利用解析程序可以得出泄露时候的调用栈如下:

01-07 15:32:14.108 12058 12091 D INJECT  : malloc ptr=0xa9948400,size=00004100,lr=0xb5d926af
01-07 15:32:14.122 12058 12091 D INJECT  : #00 pc 00052905  /system/lib/libhwui.so
01-07 15:32:14.122 12058 12091 D INJECT  : #01 pc 00039b2f  /system/lib/libhwui.so
01-07 15:32:14.122 12058 12091 D INJECT  : #02 pc 0003d7f1  /system/lib/libhwui.so
01-07 15:32:14.122 12058 12091 D INJECT  : #03 pc 0001a761  /system/lib/libhwui.so
01-07 15:32:14.122 12058 12091 D INJECT  : #04 pc 0001c3ef  /system/lib/libhwui.so
01-07 15:32:14.122 12058 12091 D INJECT  : #05 pc 0001f3d5  /system/lib/libhwui.so (android::uirenderer::renderthread::RenderThread::threadLoop()+80)
01-07 15:32:14.122 12058 12091 D INJECT  : #06 pc 0001006d  /system/lib/libutils.so (android::Thread::_threadLoop(void*)+112)
01-07 15:32:14.122 12058 12091 D INJECT  : #07 pc 0005fa87  /system/lib/libandroid_runtime.so (android::AndroidRuntime::javaThreadShell(void*)+70)
01-07 15:32:14.122 12058 12091 D INJECT  : #08 pc 0003f4cf  /system/lib/libc.so (__pthread_start(void*)+30)
01-07 15:32:14.122 12058 12091 D INJECT  : #09 pc 00019c2b  /system/lib/libc.so (__start_thread+6)

 

用addr2line解析:

#0层

$ addr2line -f -e libhwui.so 00052905
_ZN7android10uirenderer13DisplayListOpnwEjRNS0_15LinearAllocatorE
frameworks/base/libs/hwui/DisplayListOp.h:67

对应源码:

class DisplayListOp {
public:
    // These objects should always be allocated with a LinearAllocator, and never destroyed/deleted.
    // standard new() intentionally not implemented, and delete/deconstructor should never be used.
    virtual ~DisplayListOp() { LOG_ALWAYS_FATAL("Destructor not supported"); }
    static void operator delete(void* ptr) { LOG_ALWAYS_FATAL("delete not supported"); }
    static void* operator new(size_t size) = delete; /** PURPOSELY OMITTED **/
    static void* operator new(size_t size, LinearAllocator& allocator) {
        return allocator.alloc(size);
    }

 

#1层

$ addr2line -f -e libhwui.so 00039b2f
_ZN7android10uirenderer5Layer5deferERKNS0_14OpenGLRendererE
frameworks/base/libs/hwui/Layer.cpp:246 (discriminator 1)

对应源码:

void Layer::defer(const OpenGLRenderer& rootRenderer) {
    ATRACE_LAYER_WORK("Optimize");

    updateLightPosFromRenderer(rootRenderer);
    const float width = layer.getWidth();
    const float height = layer.getHeight();

    if (dirtyRect.isEmpty() || (dirtyRect.left <= 0 && dirtyRect.top <= 0 &&
            dirtyRect.right >= width && dirtyRect.bottom >= height)) {
        dirtyRect.set(0, 0, width, height);
    }

    deferredList.reset(new DeferredDisplayList(dirtyRect));

    DeferStateStruct deferredState(*deferredList, *renderer,
            RenderNode::kReplayFlag_ClipChildren);

    renderer->setViewport(width, height);
    renderer->setupFrameState(dirtyRect.left, dirtyRect.top,
            dirtyRect.right, dirtyRect.bottom, !isBlend());

    renderNode->computeOrdering();
    renderNode->defer(deferredState, 0);

    deferredUpdateScheduled = false;
}

 

#2层:

$ addr2line -f -e libhwui.so 0003d7f1
_ZN7android10uirenderer14OpenGLRenderer11updateLayerEPNS0_5LayerEb
frameworks/base/libs/hwui/OpenGLRenderer.cpp:389

对应源码:

bool OpenGLRenderer::updateLayer(Layer* layer, bool inFrame) {
    if (layer->deferredUpdateScheduled && layer->renderer
            && layer->renderNode.get() && layer->renderNode->isRenderable()) {

        if (inFrame) {
            endTiling();
            debugOverdraw(false, false);
        }

        if (CC_UNLIKELY(inFrame || Properties::drawDeferDisabled)) {
            layer->render(*this);
        } else {
            layer->defer(*this);
        }

        if (inFrame) {
            resumeAfterLayer();
            startTilingCurrentClip();
        }

        layer->debugDrawUpdate = Properties::debugLayersUpdates;
        layer->hasDrawnSinceUpdate = false;

        return true;
    }

    return false;
}

这里的malloc比较特殊,hwui模块自定义了内存管理模块LinearAllocator,泄露的内存就是通过这个类来管理的。

接下来就是得研究这部分代码了。

 

首先了解一下alloc过程:

我们从调用栈可以看到#1层的renderNode->defer()到#0层的allocator.alloc(size),

中间丢了很多细节。这主要是因为很多中间函数被内联展开了,所以不会在调用栈中体现。

class Layer : public VirtualLightRefBase {
public:
    ...
    sp<RenderNode> renderNode;

因此renderNode->defer()就会调用下面的函数:

void RenderNode::defer(DeferStateStruct& deferStruct, const int level) {
    DeferOperationHandler handler(deferStruct, level);
    issueOperations<DeferOperationHandler>(deferStruct.mRenderer, handler);
} 

template <class T>
void RenderNode::issueOperations(OpenGLRenderer& renderer, T& handler) {
    ...
    LinearAllocator& alloc = handler.allocator();
    int restoreTo = renderer.getSaveCount();
    handler(new (alloc) SaveOp(SkCanvas::kMatrix_SaveFlag | SkCanvas::kClip_SaveFlag),
                   PROPERTY_SAVECOUNT, properties().getClipToBounds());
    ...

其中SaveOp是继承自DisplayListOp:

class DisplayListOp {
public:
    ...
    static void* operator new(size_t size, LinearAllocator& allocator) {
        return allocator.alloc(size);
    }

class StateOp : public DisplayListOp {
   ...
class SaveOp : public StateOp {

DispayListOp重载了new操作符,allocator.alloc()相当于

RenderNode::issueOperations()中的handler.allocator().alloc(),

而这个handler是DeferOperationHandler()类对象,它的allocator()定义如下:

class DeferOperationHandler {
public:
    DeferOperationHandler(DeferStateStruct& deferStruct, int level)
        : mDeferStruct(deferStruct), mLevel(level) {}
    ...
    inline LinearAllocator& allocator() { return *(mDeferStruct.mAllocator); }
    ...
};

allocator()是mDeferStruct.mAllocator,而mDeferStruct又是构造函数中的参数。

RenderNode::defer()中调用了DeferOperationHandler()的构造函数,并传入参数deferStruct。

而RenderNode::defer()中的deferStruct又是其上一级函数Layer::defer()中构造并传进来的。

void Layer::defer(const OpenGLRenderer& rootRenderer) {
    ...
    deferredList.reset(new DeferredDisplayList(dirtyRect));

    DeferStateStruct deferredState(*deferredList, *renderer,
            RenderNode::kReplayFlag_ClipChildren);
    ...
    renderNode->defer(deferredState, 0);

现在我们要找deferredState的mAllocator:

struct PlaybackStateStruct {
protected:
    PlaybackStateStruct(OpenGLRenderer& renderer, int replayFlags, LinearAllocator* allocator)
            : mRenderer(renderer)
            , mReplayFlags(replayFlags)
            , mAllocator(allocator) {}
public:
    ...
    LinearAllocator * const mAllocator;
    ...
};
...
struct DeferStateStruct : public PlaybackStateStruct {
    DeferStateStruct(DeferredDisplayList& deferredList, OpenGLRenderer& renderer, int replayFlags)
            : PlaybackStateStruct(renderer, replayFlags, &(deferredList.mAllocator)),
            mDeferredList(deferredList) {}
    DeferredDisplayList& mDeferredList;
};

DeferStateStruct继承自PlaybackStateStruct,

其mAllocator是构造函数中转进来的deferredList的mAllocator。

而这个deferredList就是Layer::defer()中new出来的。

deferredList.reset(new DeferredDisplayList(dirtyRect));

DeferredDisplayList()类的定义及它的mAllocator如下:

class DeferredDisplayList {
public:
    ...
    LinearAllocator mAllocator;
};

注意这里的mAllocator已经不是指针了,这意味着它的构造和析构是构造和析构DeferredDisplayList时被调用的。

自此,绕了一大圈我们找到了#0中return allocator.alloc(size);中的alloctor,它就是DeferredDisplayList中的mAllocator。

继续看LinearAllocator::alloc():

void* LinearAllocator::alloc(size_t size) {
    size = ALIGN(size);
    ...
    ensureNext(size);
    void* ptr = mNext;
    mNext = ((char*)mNext) + size;
    mWastedSpace -= size;
    return ptr;
}

void LinearAllocator::ensureNext(size_t size) {
    if (fitsInCurrentPage(size)) return;
    if (mCurrentPage && mPageSize < MAX_PAGE_SIZE) {
        mPageSize = min(MAX_PAGE_SIZE, mPageSize * 2);
        mPageSize = ALIGN(mPageSize);
    }
    mWastedSpace += mPageSize;
    Page* p = newPage(mPageSize);
    if (mCurrentPage) {
        mCurrentPage->setNext(p);
    }
    mCurrentPage = p;
    if (!mPages) {
        mPages = mCurrentPage;
    }
    mNext = start(mCurrentPage);
}

LinearAllocator::Page* LinearAllocator::newPage(size_t pageSize) {
    pageSize = ALIGN(pageSize + sizeof(LinearAllocator::Page));
    ...
    void* buf = malloc(pageSize);    // <<<<这里申请内存
    return new (buf) Page();
}

LinearAllocator::LinearAllocator()
    : mPageSize(INITIAL_PAGE_SIZE)
    ...
    , mDedicatedPageCount(0) {}

mPageSize的初始值INITIAL_PAGE_SIZE是4096,

所以newPage中加上LinearAllocator::Page的大小后,最终pageSized大小就是4100,这与前面得出的结论是一致的。

 

关于LinearAllocator:

LinearAllocator是管理hwui模块的内存管理单元,由于hwui频繁申请和释放小字节的对象,

如果每个对象都用系统的malloc,则会增加内存碎片并降低效率,所以这里就用内存池管理这些小内存。

第一次申请时先从用malloc向系统申请4KB的堆内存作为内存池(Page类),

后面申请的小内存都从这个内存池里拿(fitsInCurrentPage()就是做这事情的)。

当这个4KB的内存池满了以后,它会再次调用malloc申请8KB的内存,然后将这个作为新的内存池,加入到内存池链表中。

这样的做法有个限制,就是不方便释放。

因为如果要释放内存,我们还得用额外的机制来管理这些释放的内存,这样会增加模块复杂度,效率也会降低。

所以LinearAllocator的做法是,当LinearAllocator析构时,才将内存池链表里的内存给释放掉。如:

LinearAllocator::~LinearAllocator(void) {
    while (mDtorList) {
        auto node = mDtorList;
        mDtorList = node->next;
        node->dtor(node->addr);
    }
    Page* p = mPages;
    while (p) {
        Page* next = p->next();
        p->~Page();
        free(p);                                              // <<<<这里释放内存
        RM_ALLOCATION(mPageSize);
        p = next;
    }
}

如果这里有内存泄露,只有两种可能性

1、内存池一直在涨,LinearAllocator不会被析构

2、LinearAllocator本身有泄露,也就是只有构造,没有析构。

 

在ensureNext()里调用newPage()之前将mPageSize的大小打印出来,

发现绝大部分mPageSize的size是4096,偶尔会有一两个8192,因此可以判断LinearAllocator有泄露。

我只需要在LinearAllocator的构造和析构函数里打印log,看是否成对出现就可以了。

复测的结果确定是LinearAllocator对象有泄露,

又LinearAllocator是DeferredDisplayList的成员,可以判断DeferredDisplayList对象泄露了。

用同样的方法,很容易确定DeferredDisplayList对象有泄露。

在DeferredDisplayList的构造和析构函数里打印调用栈,

发现都是指向Layer::defer()中的deferredList.reset(new DeferredDisplayList(dirtyRect)):

void Layer::defer(const OpenGLRenderer& rootRenderer) {
    ...
    deferredList.reset(new DeferredDisplayList(dirtyRect));   //<<<<<<

    DeferStateStruct deferredState(*deferredList, *renderer,
            RenderNode::kReplayFlag_ClipChildren);
    ...
    renderNode->defer(deferredState, 0);

构造指向这一行很好理解,为什么析构函数会指向这里呢?

从deferredList的定义可以知道,deferredList是智能指针。

std::unique_ptr<DeferredDisplayList> deferredList;

它的reset()方法会将旧的指针替换为新的指针,并调用旧指针指向的对象的析构函数。如:

  template <typename _Tp, typename _Dp = default_delete<_Tp> >
    class unique_ptr
    {
      ...
      void
      reset(pointer __p = pointer()) noexcept
      {
        using std::swap;
        swap(std::get<0>(_M_t), __p);
        if (__p != pointer())
          get_deleter()(__p);
      }
      ...

从log中我们还可以看到虽然DeferredDisplayList的构造和析构的调用栈都指向同一个地址,但它们并非成对出现。

构造会比析构多很多,也就是说当reset()时deferredList如果指向空指针,这里就不会有析构函数了。

既然不成对出现,那肯定还有别的地方要析构这个DeferredDisplayList对象。而要析构这个对象肯定会用到deferredList。

由于deferredList是private的成员,所以肯定只会在DeferredDisplayList.cpp和DeferredDisplayList.h中会用到。

可疑的代码只有一处:

void Layer::cancelDefer() {
    renderNode = nullptr;
    deferredUpdateScheduled = false;
    deferredList.release();
}

在这里将deferredList指向的指针打印出来,发现只要在这里打出来的地址必定是泄露的。

且deferredList.release()时不会调用DeferredDisplayList()的析构函数。

Layer::defer()和Layer::cancelDefer()代码上是挨着写的,

既然Layer::defer()里会申请内存,那Layer::cancelDefer()里应该会释放内存。

难道作者对智能指针的理解有误?首先从代码角度确定release()确实不会调用析构函数。

      pointer
      release() noexcept
      {
        pointer __p = get();
        std::get<0>(_M_t) = pointer();
        return __p;
      }

显然,这里确实不存在析构。

为此在cancelDefer()里加上deferredList.reset(0);

void Layer::cancelDefer() {
    renderNode = nullptr;
    deferredUpdateScheduled = false;
    deferredList.reset(0);
    deferredList.release();
}

重新编译libhwui.so,push后重启手机,反复滑动桌面,泄露现象不再了。

这样基本上就能确定问题了。应该是原生问题。

 

从git log中发现这段code是14年底时候在M上加上去的。L的deferredList是普通指针。修改记录如下:

diff --git a/libs/hwui/Layer.h b/libs/hwui/Layer.h
-    DeferredDisplayList* deferredList;
+    std::unique_ptr<DeferredDisplayList> deferredList;

diff --git a/libs/hwui/Layer.cpp b/libs/hwui/Layer.cpp
void Layer::cancelDefer() {
     renderNode = NULL;
     deferredUpdateScheduled = false;
-    if (deferredList) {
-        delete deferredList;
-        deferredList = NULL;
-    }
+    deferredList.release();
}

用L试了下确实没泄露,只有M的机型包括NEXUS也有泄露。

接着给根据提交记录找到google工程师的邮箱,发邮件反馈的一下。

没过10分钟就收到回复说这个问题已经解决,并提供了path。

 

【解决方案】

diff --git a/libs/hwui/Layer.cpp b/libs/hwui/Layer.cpp
void Layer::cancelDefer() {
     renderNode = NULL;
     deferredUpdateScheduled = false;
-    deferredList.release();
+   deferredList.reset(nullptr);
}

该修改是1个月前提交的,还是比google工程师晚了一步!

 

Layer的内存泄露问题分析报告