在 128GB 的工作站上跑一个程序,内存占用峰值 300 多个 G 。试着在 CentOS 上面跑,直接把 swap 分区(128+128)给炸了。
换到黑苹果跑,内存压缩效果拔群(我知道 linux 也有 zram,但是 macOS 是自带的不用去配置),动态 swap 也很靠谱,只要不超过硬盘空间都不会崩。
1
Badlion 2021-02-02 13:19:01 +08:00
黑苹果是多大内存呢?
|
3
oxromantic 2021-02-02 13:24:58 +08:00
怎么感觉你这种需求更加适合把硬盘当硬盘用,内存当内存用自己控制调度优化算法
|
4
sean10 2021-02-02 13:25:58 +08:00 via Android
+1,当初第一次玩 tensorflow,mac 上只发现很卡,至少能跑出来,换 ubuntu,我才发现内存爆了……
|
5
imnpc 2021-02-02 13:30:46 +08:00
黑苹果也会卡顿的 以前 16G 内存的时候 只要系统开始吃 swap 明显卡顿
现在换成 32G 了 最多吃内存到 25G |
6
WuSiYu 2021-02-02 20:23:33 +08:00
macOS 的动态 swap 其实是把 1G 大小的 swapfile 一个一个得往上添,linux 下写个脚本应该也能实现
|
9
YuiTH 2021-02-10 13:19:13 +08:00
Mac 和 Linux 发行版的设计理念毕竟不一样,Mac 主要精力还是面对 end user 的,这种事情都要做好,而且不能交给用户去做。
|