V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
Distributions
Ubuntu
Fedora
CentOS
中文资源站
网易开源镜像站
jerry017cn
V2EX  ›  Linux

Linux 内存中的 Cache 真的能被回收么?

  •  1
     
  •   jerry017cn · 2016-05-16 12:44:20 +08:00 · 8954 次点击
    这是一个创建于 3138 天前的主题,其中的信息可能已经有所发展或是发生改变。

    #Linux 内存中的 Cache 真的能被回收么?

    版权声明:
    
    本文章内容在非商业使用前提下可无需授权任意转载、发布。
    
    转载、发布请务必注明作者和其微博、微信公众号地址,以便读者询问问题和甄误反馈,共同进步。
    
    微博 ID : orroz
    
    微信公众号: Linux 系统技术
    

    在 Linux 系统中,我们经常用 free 命令来查看系统内存的使用状态。在一个 RHEL6 的系统上, free 命令的显示内容大概是这样一个状态:

    [root@tencent64 ~]# free
                 total       used       free     shared    buffers     cached
    Mem:     132256952   72571772   59685180          0    1762632   53034704
    -/+ buffers/cache:   17774436  114482516
    Swap:      2101192        508    2100684
    

    这里的默认显示单位是 kb ,我的服务器是 128G 内存,所以数字显得比较大。这个命令几乎是每一个使用过 Linux 的人必会的命令,但越是这样的命令,似乎真正明白的人越少(我是说比例越少)。一般情况下,对此命令输出的理解可以分这几个层次:

    1. 不了解。这样的人的第一反应是:天啊,内存用了好多, 70 个多 G ,可是我几乎没有运行什么大程序啊?为什么会这样? Linux 好占内存!
    2. 自以为很了解。这样的人一般自习评估过会说:嗯,根据我专业的眼光看出来,内存才用了 17G 左右,还有很多剩余内存可用。 buffers/cache 占用的较多,说明系统中有进程曾经读写过文件,但是不要紧,这部分内存是当空闲来用的。
    3. 真的很了解。这种人的反应反而让人感觉最不懂 Linux ,他们的反应是: free 显示的是这样,好吧我知道了。神马?你问我这些内存够不够,我当然不知道啦!我特么怎么知道你程序怎么写的?

    根据目前网络上技术文档的内容,我相信绝大多数了解一点 Linux 的人应该处在第二种层次。大家普遍认为, buffers 和 cached 所占用的内存空间是可以在内存压力较大的时候被释放当做空闲空间用的。但真的是这样么?在论证这个题目之前,我们先简要介绍一下 buffers 和 cached 是什么意思:

    ##什么是 buffer/cache ?

    buffer 和 cache 是两个在计算机技术中被用滥的名词,放在不通语境下会有不同的意义。在 Linux 的内存管理中,这里的 buffer 指 Linux 内存的: Buffer cache 。这里的 cache 指 Linux 内存中的: Page cache 。翻译成中文可以叫做缓冲区缓存和页面缓存。在历史上,它们一个( buffer )被用来当成对 io 设备写的缓存,而另一个( cache )被用来当作对 io 设备的读缓存,这里的 io 设备,主要指的是块设备文件和文件系统上的普通文件。但是现在,它们的意义已经不一样了。在当前的内核中, page cache 顾名思义就是针对内存页的缓存,说白了就是,如果有内存是以 page 进行分配管理的,都可以使用 page cache 作为其缓存来管理使用。当然,不是所有的内存都是以页( page )进行管理的,也有很多是针对块( block )进行管理的,这部分内存使用如果要用到 cache 功能,则都集中到 buffer cache 中来使用。(从这个角度出发,是不是 buffer cache 改名叫做 block cache 更好?)然而,也不是所有块( block )都有固定长度,系统上块的长度主要是根据所使用的块设备决定的,而页长度在 X86 上无论是 32 位还是 64 位都是 4k 。

    明白了这两套缓存系统的区别,就可以理解它们究竟都可以用来做什么了。

    什么是 page cache

    Page cache 主要用来作为文件系统上的文件数据的缓存来用,尤其是针对当进程对文件有 read / write 操作的时候。如果你仔细想想的话,作为可以映射文件到内存的系统调用: mmap 是不是很自然的也应该用到 page cache ?在当前的系统实现里, page cache 也被作为其它文件类型的缓存设备来用,所以事实上 page cache 也负责了大部分的块设备文件的缓存工作。

    什么是 buffer cache

    Buffer cache 则主要是设计用来在系统对块设备进行读写的时候,对块进行数据缓存的系统来使用。这意味着某些对块的操作会使用 buffer cache 进行缓存,比如我们在格式化文件系统的时候。一般情况下两个缓存系统是一起配合使用的,比如当我们对一个文件进行写操作的时候, page cache 的内容会被改变,而 buffer cache 则可以用来将 page 标记为不同的缓冲区,并记录是哪一个缓冲区被修改了。这样,内核在后续执行脏数据的回写( writeback )时,就不用将整个 page 写回,而只需要写回修改的部分即可。

    ##如何回收 cache ?

    Linux 内核会在内存将要耗尽的时候,触发内存回收的工作,以便释放出内存给急需内存的进程使用。一般情况下,这个操作中主要的内存释放都来自于对 buffer / cache 的释放。尤其是被使用更多的 cache 空间。既然它主要用来做缓存,只是在内存够用的时候加快进程对文件的读写速度,那么在内存压力较大的情况下,当然有必要清空释放 cache ,作为 free 空间分给相关进程使用。所以一般情况下,我们认为 buffer/cache 空间可以被释放,这个理解是正确的。

    但是这种清缓存的工作也并不是没有成本。理解 cache 是干什么的就可以明白清缓存必须保证 cache 中的数据跟对应文件中的数据一致,才能对 cache 进行释放。所以伴随着 cache 清除的行为的,一般都是系统 IO 飙高。因为内核要对比 cache 中的数据和对应硬盘文件上的数据是否一致,如果不一致需要写回,之后才能回收。

    在系统中除了内存将被耗尽的时候可以清缓存以外,我们还可以使用下面这个文件来人工触发缓存清除的操作:

    [root@tencent64 ~]# cat /proc/sys/vm/drop_caches 
    1
    

    方法是:

    echo 1 > /proc/sys/vm/drop_caches
    

    当然,这个文件可以设置的值分别为 1 、 2 、 3 。它们所表示的含义为: echo 1 > /proc/sys/vm/drop_caches:表示清除 pagecache 。

    echo 2 > /proc/sys/vm/drop_caches:表示清除回收 slab 分配器中的对象(包括目录项缓存和 inode 缓存)。 slab 分配器是内核中管理内存的一种机制,其中很多缓存数据实现都是用的 pagecache 。

    echo 3 > /proc/sys/vm/drop_caches:表示清除 pagecache 和 slab 分配器中的缓存对象。

    ##cache 都能被回收么?

    我们分析了 cache 能被回收的情况,那么有没有不能被回收的 cache 呢?当然有。我们先来看第一种情况:

    ###tmpfs

    大家知道 Linux 提供一种“临时”文件系统叫做 tmpfs ,它可以将内存的一部分空间拿来当做文件系统使用,使内存空间可以当做目录文件来用。现在绝大多数 Linux 系统都有一个叫做 /dev/shm 的 tmpfs 目录,就是这样一种存在。当然,我们也可以手工创建一个自己的 tmpfs ,方法如下:

    [root@tencent64 ~]# mkdir /tmp/tmpfs
    [root@tencent64 ~]# mount -t tmpfs -o size=20G none /tmp/tmpfs/
    
    [root@tencent64 ~]# df
    Filesystem           1K-blocks      Used Available Use% Mounted on
    /dev/sda1             10325000   3529604   6270916  37% /
    /dev/sda3             20646064   9595940  10001360  49% /usr/local
    /dev/mapper/vg-data  103212320  26244284  71725156  27% /data
    tmpfs                 66128476  14709004  51419472  23% /dev/shm
    none                  20971520         0  20971520   0% /tmp/tmpfs
    

    于是我们就创建了一个新的 tmpfs ,空间是 20G ,我们可以在 /tmp/tmpfs 中创建一个 20G 以内的文件。如果我们创建的文件实际占用的空间是内存的话,那么这些数据应该占用内存空间的什么部分呢?根据 pagecache 的实现功能可以理解,既然是某种文件系统,那么自然该使用 pagecache 的空间来管理。我们试试是不是这样?

    [root@tencent64 ~]# free -g
                 total       used       free     shared    buffers     cached
    Mem:           126         36         89          0          1         19
    -/+ buffers/cache:         15        111
    Swap:            2          0          2
    [root@tencent64 ~]# dd if=/dev/zero of=/tmp/tmpfs/testfile bs=1G count=13
    13+0 records in
    13+0 records out
    13958643712 bytes (14 GB) copied, 9.49858 s, 1.5 GB/s
    [root@tencent64 ~]# 
    [root@tencent64 ~]# free -g
                 total       used       free     shared    buffers     cached
    Mem:           126         49         76          0          1         32
    -/+ buffers/cache:         15        110
    Swap:            2          0          2
    

    我们在 tmpfs 目录下创建了一个 13G 的文件,并通过前后 free 命令的对比发现, cached 增长了 13G ,说明这个文件确实放在了内存里并且内核使用的是 cache 作为存储。再看看我们关心的指标: -/+ buffers/cache 那一行。我们发现,在这种情况下 free 命令仍然提示我们有 110G 内存可用,但是真的有这么多么?我们可以人工触发内存回收看看现在到底能回收多少内存:

    [root@tencent64 ~]# echo 3 > /proc/sys/vm/drop_caches
    [root@tencent64 ~]# free -g
                 total       used       free     shared    buffers     cached
    Mem:           126         43         82          0          0         29
    -/+ buffers/cache:         14        111
    Swap:            2          0          2
    

    可以看到, cached 占用的空间并没有像我们想象的那样完全被释放,其中 13G 的空间仍然被 /tmp/tmpfs 中的文件占用的。当然,我的系统中还有其他不可释放的 cache 占用着其余 16G 内存空间。那么 tmpfs 占用的 cache 空间什么时候会被释放呢?是在其文件被删除的时候.如果不删除文件,无论内存耗尽到什么程度,内核都不会自动帮你把 tmpfs 中的文件删除来释放 cache 空间。

    [root@tencent64 ~]# rm /tmp/tmpfs/testfile 
    [root@tencent64 ~]# free -g
                 total       used       free     shared    buffers     cached
    Mem:           126         30         95          0          0         16
    -/+ buffers/cache:         14        111
    Swap:            2          0          2
    

    这是我们分析的第一种 cache 不能被回收的情况。还有其他情况,比如:

    ###共享内存

    共享内存是系统提供给我们的一种常用的进程间通信( IPC )方式,但是这种通信方式不能在 shell 中申请和使用,所以我们需要一个简单的测试程序,代码如下:

    [root@tencent64 ~]# cat shm.c 
    
    #include <stdio.h>
    #include <stdlib.h>
    #include <unistd.h>
    #include <sys/ipc.h>
    #include <sys/shm.h>
    #include <string.h>
    
    #define MEMSIZE 2048*1024*1023
    
    int
    main()
    {
        int shmid;
        char *ptr;
        pid_t pid;
        struct shmid_ds buf;
        int ret;
    
        shmid = shmget(IPC_PRIVATE, MEMSIZE, 0600);
        if (shmid<0) {
            perror("shmget()");
            exit(1);
        }
    
        ret = shmctl(shmid, IPC_STAT, &buf);
        if (ret < 0) {
            perror("shmctl()");
            exit(1);
        }
    
        printf("shmid: %d\n", shmid);
        printf("shmsize: %d\n", buf.shm_segsz);
    
        buf.shm_segsz *= 2;
    
        ret = shmctl(shmid, IPC_SET, &buf);
        if (ret < 0) {
            perror("shmctl()");
            exit(1);
        }
    
        ret = shmctl(shmid, IPC_SET, &buf);
        if (ret < 0) {
            perror("shmctl()");
            exit(1);
        }
    
        printf("shmid: %d\n", shmid);
        printf("shmsize: %d\n", buf.shm_segsz);
    
    
        pid = fork();
        if (pid<0) {
            perror("fork()");
            exit(1);
        }
        if (pid==0) {
            ptr = shmat(shmid, NULL, 0);
            if (ptr==(void*)-1) {
                perror("shmat()");
                exit(1);
            }
            bzero(ptr, MEMSIZE);
            strcpy(ptr, "Hello!");
            exit(0);
        } else {
            wait(NULL);
            ptr = shmat(shmid, NULL, 0);
            if (ptr==(void*)-1) {
                perror("shmat()");
                exit(1);
            }
            puts(ptr);
            exit(0);
        }
    }
    

    程序功能很简单,就是申请一段不到 2G 共享内存,然后打开一个子进程对这段共享内存做一个初始化操作,父进程等子进程初始化完之后输出一下共享内存的内容,然后退出。但是退出之前并没有删除这段共享内存。我们来看看这个程序执行前后的内存使用:

    [root@tencent64 ~]# free -g
                 total       used       free     shared    buffers     cached
    Mem:           126         30         95          0          0         16
    -/+ buffers/cache:         14        111
    Swap:            2          0          2
    [root@tencent64 ~]# ./shm 
    shmid: 294918
    shmsize: 2145386496
    shmid: 294918
    shmsize: -4194304
    Hello!
    [root@tencent64 ~]# free -g
                 total       used       free     shared    buffers     cached
    Mem:           126         32         93          0          0         18
    -/+ buffers/cache:         14        111
    Swap:            2          0          2
    

    cached 空间由 16G 涨到了 18G 。那么这段 cache 能被回收么?继续测试:

    [root@tencent64 ~]# echo 3 > /proc/sys/vm/drop_caches
    [root@tencent64 ~]# free -g
                 total       used       free     shared    buffers     cached
    Mem:           126         32         93          0          0         18
    -/+ buffers/cache:         14        111
    Swap:            2          0          2
    

    结果是仍然不可回收。大家可以观察到,这段共享内存即使没人使用,仍然会长期存放在 cache 中,直到其被删除。删除方法有两种,一种是程序中使用 shmctl()去 IPC_RMID ,另一种是使用 ipcrm 命令。我们来删除试试:

    [root@tencent64 ~]# ipcs -m
    
    ------ Shared Memory Segments --------
    key        shmid      owner      perms      bytes      nattch     status      
    0x00005feb 0          root       666        12000      4                       
    0x00005fe7 32769      root       666        524288     2                       
    0x00005fe8 65538      root       666        2097152    2                       
    0x00038c0e 131075     root       777        2072       1                       
    0x00038c14 163844     root       777        5603392    0                       
    0x00038c09 196613     root       777        221248     0                       
    0x00000000 294918     root       600        2145386496 0                       
    
    [root@tencent64 ~]# ipcrm -m 294918
    [root@tencent64 ~]# ipcs -m
    
    ------ Shared Memory Segments --------
    key        shmid      owner      perms      bytes      nattch     status      
    0x00005feb 0          root       666        12000      4                       
    0x00005fe7 32769      root       666        524288     2                       
    0x00005fe8 65538      root       666        2097152    2                       
    0x00038c0e 131075     root       777        2072       1                       
    0x00038c14 163844     root       777        5603392    0                       
    0x00038c09 196613     root       777        221248     0                       
    
    [root@tencent64 ~]# free -g
                 total       used       free     shared    buffers     cached
    Mem:           126         30         95          0          0         16
    -/+ buffers/cache:         14        111
    Swap:            2          0          2
    

    删除共享内存后, cache 被正常释放了。这个行为与 tmpfs 的逻辑类似。内核底层在实现共享内存( shm )、消息队列( msg )和信号量数组( sem )这些 POSIX:XSI 的 IPC 机制的内存存储时,使用的都是 tmpfs 。这也是为什么共享内存的操作逻辑与 tmpfs 类似的原因。当然,一般情况下是 shm 占用的内存更多,所以我们在此重点强调共享内存的使用。说到共享内存, Linux 还给我们提供了另外一种共享内存的方法,就是:

    ###mmap

    mmap()是一个非常重要的系统调用,这仅从 mmap 本身的功能描述上是看不出来的。从字面上看, mmap 就是将一个文件映射进进程的虚拟内存地址,之后就可以通过操作内存的方式对文件的内容进行操作。但是实际上这个调用的用途是很广泛的。当 malloc 申请内存时,小段内存内核使用 sbrk 处理,而大段内存就会使用 mmap 。当系统调用 exec 族函数执行时,因为其本质上是将一个可执行文件加载到内存执行,所以内核很自然的就可以使用 mmap 方式进行处理。我们在此仅仅考虑一种情况,就是使用 mmap 进行共享内存的申请时,会不会跟 shmget()一样也使用 cache ?

    同样,我们也需要一个简单的测试程序:

    [root@tencent64 ~]# cat mmap.c 
    #include <stdlib.h>
    #include <stdio.h>
    #include <strings.h>
    #include <sys/mman.h>
    #include <sys/stat.h>
    #include <sys/types.h>
    #include <fcntl.h>
    #include <unistd.h>
    
    #define MEMSIZE 1024*1024*1023*2
    #define MPFILE "./mmapfile"
    
    int main()
    {
    	void *ptr;
    	int fd;
    
    	fd = open(MPFILE, O_RDWR);
    	if (fd < 0) {
    		perror("open()");
    		exit(1);
    	}
    
    	ptr = mmap(NULL, MEMSIZE, PROT_READ|PROT_WRITE, MAP_SHARED|MAP_ANON, fd, 0);
    	if (ptr == NULL) {
    		perror("malloc()");
    		exit(1);
    	}
    
    	printf("%p\n", ptr);
    	bzero(ptr, MEMSIZE);
    
    	sleep(100);
    
    	munmap(ptr, MEMSIZE);
    	close(fd);
    
    	exit(1);
    }
    

    这次我们干脆不用什么父子进程的方式了,就一个进程,申请一段 2G 的 mmap 共享内存,然后初始化这段空间之后等待 100 秒,再解除影射所以我们需要在它 sleep 这 100 秒内检查我们的系统内存使用,看看它用的是什么空间?当然在这之前要先创建一个 2G 的文件./mmapfile 。结果如下:

    [root@tencent64 ~]# dd if=/dev/zero of=mmapfile bs=1G count=2
    [root@tencent64 ~]# echo 3 > /proc/sys/vm/drop_caches
    [root@tencent64 ~]# free -g
                 total       used       free     shared    buffers     cached
    Mem:           126         30         95          0          0         16
    -/+ buffers/cache:         14        111
    Swap:            2          0          2
    

    然后执行测试程序:

    [root@tencent64 ~]# ./mmap &
    [1] 19157
    0x7f1ae3635000
    [root@tencent64 ~]# free -g
                 total       used       free     shared    buffers     cached
    Mem:           126         32         93          0          0         18
    -/+ buffers/cache:         14        111
    Swap:            2          0          2
    
    [root@tencent64 ~]# echo 3 > /proc/sys/vm/drop_caches
    [root@tencent64 ~]# free -g
                 total       used       free     shared    buffers     cached
    Mem:           126         32         93          0          0         18
    -/+ buffers/cache:         14        111
    Swap:            2          0          2
    

    我们可以看到,在程序执行期间, cached 一直为 18G ,比之前涨了 2G ,并且此时这段 cache 仍然无法被回收。然后我们等待 100 秒之后程序结束。

    [root@tencent64 ~]# 
    [1]+  Exit 1                  ./mmap
    [root@tencent64 ~]# 
    [root@tencent64 ~]# free -g
                 total       used       free     shared    buffers     cached
    Mem:           126         30         95          0          0         16
    -/+ buffers/cache:         14        111
    Swap:            2          0          2
    

    程序退出之后, cached 占用的空间被释放。这样我们可以看到,使用 mmap 申请标志状态为 MAP_SHARED 的内存,内核也是使用的 cache 进行存储的。在进程对相关内存没有释放之前,这段 cache 也是不能被正常释放的。实际上, mmap 的 MAP_SHARED 方式申请的内存,在内核中也是由 tmpfs 实现的。由此我们也可以推测,由于共享库的只读部分在内存中都是以 mmap 的 MAP_SHARED 方式进行管理,实际上它们也都是要占用 cache 且无法被释放的。

    ##最后

    我们通过三个测试例子,发现 Linux 系统内存中的 cache 并不是在所有情况下都能被释放当做空闲空间用的。并且也也明确了,即使可以释放 cache ,也并不是对系统来说没有成本的。总结一下要点,我们应该记得这样几点:

    1. 当 cache 作为文件缓存被释放的时候会引发 IO 变高,这是 cache 加快文件访问速度所要付出的成本。
    2. tmpfs 中存储的文件会占用 cache 空间,除非文件删除否则这个 cache 不会被自动释放。
    3. 使用 shmget 方式申请的共享内存会占用 cache 空间,除非共享内存被 ipcrm 或者使用 shmctl 去 IPC_RMID ,否则相关的 cache 空间都不会被自动释放。
    4. 使用 mmap 方法申请的 MAP_SHARED 标志的内存会占用 cache 空间,除非进程将这段内存 munmap ,否则相关的 cache 空间都不会被自动释放。
    5. 实际上 shmget 、 mmap 的共享内存,在内核层都是通过 tmpfs 实现的, tmpfs 实现的存储用的都是 cache 。

    当理解了这些的时候,希望大家对 free 命令的理解可以达到我们说的第三个层次。我们应该明白,内存的使用并不是简单的概念, cache 也并不是真的可以当成空闲空间用的。如果我们要真正深刻理解你的系统上的内存到底使用的是否合理,是需要理解清楚很多更细节知识,并且对相关业务的实现做更细节判断的。我们当前实验场景是 Centos 6 的环境,不同版本的 Linux 的 free 现实的状态可能不一样,大家可以自己去找出不同的原因。

    当然,本文所述的也不是所有的 cache 不能被释放的情形。那么,在你的应用场景下,还有那些 cache 不能被释放的场景呢?


    大家好,我是 Zorro !

    如果你喜欢本文,欢迎在微博上搜索“orroz”关注我,地址是: http://weibo.com/orroz

    大家也可以在微信上搜索:Linux 系统技术 关注我的公众号。

    我的所有文章都会沉淀在我的个人博客上,地址是: http://liwei.life 。

    欢迎使用以上各种方式一起探讨学习,共同进步。

    公众号二维码:

    Zorro ] icon


    22 条回复    2017-11-17 02:43:13 +08:00
    herozzm
        1
    herozzm  
       2016-05-16 12:49:58 +08:00 via Android
    上来就全文,没有能读完的吧
    jerry017cn
        2
    jerry017cn  
    OP
       2016-05-16 12:55:32 +08:00
    @herozzm 没关系,留着慢慢读呗。。。。
    wwqgtxx
        3
    wwqgtxx  
       2016-05-16 13:04:29 +08:00 via Android
    @herozzm 我还真的读完了
    acoada
        4
    acoada  
       2016-05-16 13:07:39 +08:00 via iPhone
    # 一级标题
    要有空格哦
    Andiry
        5
    Andiry  
       2016-05-16 13:10:30 +08:00
    tmpfs 以 swap 作为基础的,怎么会不能释放
    soulteary
        6
    soulteary  
       2016-05-16 13:13:59 +08:00
    看来有必要把这个知识点也做下 best practice 了...
    Andiry
        7
    Andiry  
       2016-05-16 13:16:35 +08:00
    另外说 mmap 通过 tmpfs 实现也不正确,准确地说是非文件映射的 mmap 还差不多。更别说现在的 DAX mmap 跟 page cache 连边都扯不上了。
    gamexg
        8
    gamexg  
       2016-05-16 13:29:42 +08:00
    一直以为“在历史上,它们一个( buffer )被用来当成对 io 设备写的缓存,而另一个( cache )被用来当作对 io 设备的读缓存,这里的 io 设备,主要指的是块设备文件和文件系统上的普通文件。”,现在居然全变了...
    Jaylee
        9
    Jaylee  
       2016-05-16 13:33:43 +08:00
    TL;DR
    zwh8800
        10
    zwh8800  
       2016-05-16 13:49:44 +08:00
    不错
    liamxd
        11
    liamxd  
       2016-05-16 14:27:57 +08:00
    在某个微信公众号看过这个文章。你可以研究一下看是不是别人非授权转载了。
    zmj1316
        12
    zmj1316  
       2016-05-16 14:29:33 +08:00 via Android
    这篇文章在 linux cn 也看到过
    zmj1316
        13
    zmj1316  
       2016-05-16 14:32:24 +08:00 via Android
    看了一下这是作者本人?
    tchekai704
        14
    tchekai704  
       2016-05-17 07:35:34 +08:00 via iPhone
    现在伴随 numa 架构, page cache 高的情况下会发生十分诡异的情况, CPU sy%高的离谱
    wweir
        15
    wweir  
       2016-05-18 10:23:03 +08:00
    就凭这篇文章,这公众好我关注了
    lidawn
        16
    lidawn  
       2016-06-02 20:09:25 +08:00
    你好,请问能够将本文转载到我的博客(lidawn.github.io)上面吗?
    lidawn
        17
    lidawn  
       2016-06-02 20:19:43 +08:00
    额 我注明作者 微博 ID 和微信公众号之后转载了
    lilydjwg
        18
    lilydjwg  
       2017-10-31 16:21:17 +08:00
    我是第四种:你这 free 命令好老啊,都没「可用 / Available 」列的……
    lilydjwg
        19
    lilydjwg  
       2017-10-31 16:22:23 +08:00
    @Andiry #5 内存不够用的时候被转移到 swap 的,就是不能被释放的。能被释放的就直接释放了嘛。
    fool
        20
    fool  
       2017-11-16 21:54:19 +08:00
    @lilydjwg 不用 free,那用什么命令了,求教?
    lilydjwg
        21
    lilydjwg  
       2017-11-16 21:59:17 +08:00
    @fool #20 用 free 啊,如果你的 free 命令和内核都比较新的话,能看到「可用 / Available 」列。没有的话,自己看着 /proc/meminfo 猜一猜吧……
    fool
        22
    fool  
       2017-11-17 02:43:13 +08:00
    @lilydjwg 哦,谢谢啊,我以为是会有类似 ss/netstat 这种,恩恩,我的也是 sid 最新版本
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   4360 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 48ms · UTC 05:33 · PVG 13:33 · LAX 21:33 · JFK 00:33
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.