memcg: fix performance of mem_cgroup_begin_update_page_stat()
authorKAMEZAWA Hiroyuki <>
Wed, 21 Mar 2012 23:34:26 +0000 (16:34 -0700)
committerLinus Torvalds <>
Thu, 22 Mar 2012 00:55:02 +0000 (17:55 -0700)
mem_cgroup_begin_update_page_stat() should be very fast because it's
called very frequently.  Now, it needs to look up page_cgroup and its
memcg....this is slow.

This patch adds a global variable to check "any memcg is moving or not".
With this, the caller doesn't need to visit page_cgroup and memcg.

Here is a test result.  A test program makes page faults onto a file,
MAP_SHARED and makes each page's page_mapcount(page) > 1, and free the
range by madvise() and page fault again.  This program causes 26214400
times of page fault onto a file(size was 1G.) and shows shows the cost of

Before this patch for mem_cgroup_begin_update_page_stat()

    [kamezawa@bluextal test]$ time ./mmap 1G

    real    0m21.765s
    user    0m5.999s
    sys     0m15.434s

    27.46%     mmap  mmap               [.] reader
    21.15%     mmap  [kernel.kallsyms]  [k] page_fault
     9.17%     mmap  [kernel.kallsyms]  [k] filemap_fault
     2.96%     mmap  [kernel.kallsyms]  [k] __do_fault
     2.83%     mmap  [kernel.kallsyms]  [k] __mem_cgroup_begin_update_page_stat

After this patch

    [root@bluextal test]# time ./mmap 1G

    real    0m21.373s
    user    0m6.113s
    sys     0m15.016s

In usual path, calls to __mem_cgroup_begin_update_page_stat() goes away.

Note: we may be able to remove this optimization in future if
      we can get pointer to memcg directly from struct page.

[ don't return a void]
Signed-off-by: KAMEZAWA Hiroyuki <>
Acked-by: Greg Thelen <>
Acked-by: Johannes Weiner <>
Cc: Michal Hocko <>
Cc: KOSAKI Motohiro <>
Cc: Ying Han <>
Signed-off-by: Andrew Morton <>
Signed-off-by: Linus Torvalds <>

index bf7ae01fc93bafd193aeeabe3cbdf0ed7e63cd51..f94efd2f6c275b0ff14859e2451da53a6e3115a9 100644 (file)
@@ -144,6 +144,8 @@ static inline bool mem_cgroup_disabled(void)
 void __mem_cgroup_begin_update_page_stat(struct page *page, bool *locked,
                                         unsigned long *flags);
+extern atomic_t memcg_moving;
 static inline void mem_cgroup_begin_update_page_stat(struct page *page,
                                        bool *locked, unsigned long *flags)
@@ -151,7 +153,8 @@ static inline void mem_cgroup_begin_update_page_stat(struct page *page,
        *locked = false;
-       return __mem_cgroup_begin_update_page_stat(page, locked, flags);
+       if (atomic_read(&memcg_moving))
+               __mem_cgroup_begin_update_page_stat(page, locked, flags);
 void __mem_cgroup_end_update_page_stat(struct page *page,
index 0e13b2aeea610207e76351902b56885253409930..eb1004f207b3c869fb331c8a21f4ffbe453e373f 100644 (file)
@@ -1306,8 +1306,13 @@ int mem_cgroup_swappiness(struct mem_cgroup *memcg)
  *                                              rcu_read_unlock()
  *         start move here.
+/* for quick checking without looking up memcg */
+atomic_t memcg_moving __read_mostly;
 static void mem_cgroup_start_move(struct mem_cgroup *memcg)
+       atomic_inc(&memcg_moving);
@@ -1318,8 +1323,10 @@ static void mem_cgroup_end_move(struct mem_cgroup *memcg)
         * Now, mem_cgroup_clear_mc() may call this function with NULL.
         * We check NULL in callee rather than caller.
-       if (memcg)
+       if (memcg) {
+               atomic_dec(&memcg_moving);
+       }