1
TaMud 2016-10-12 14:56:42 +08:00
一天产生几百 g 数据?
那你可以做个主从服务,从服备份 |
2
Infernalzero 2016-10-12 15:03:31 +08:00
直接 mysqldump 或者设延时库,单纯的主从备份没用的,你 master 删了 slave 也删了啊
|
3
liyj144 2016-10-12 15:12:02 +08:00
1. 拆库拆表,多进程(按库)备份。 500G 的数据,普通磁盘几个小时就备份完了。 2. 磁盘上 SSD 会更快,备份完也可以快速跟主库同步。更何况备份是在备机上的, io 高一些影响也不大。
|
4
kanchi240 2016-10-12 16:01:09 +08:00
Xtrabackup 不是支持增量备份的吗。。“ Xtrabackup 导出有点搞不动”是什么意思?
|
5
pc10201 2016-10-12 16:11:21 +08:00
主从同步,用从库备份,一般是周备,但保留并备份最近 7 天的日志
|
6
ElmerZhang 2016-10-12 17:30:33 +08:00
专门有个不提供线上服务的从库做备份。
最简单粗暴的备份方法:停实例, rsync 走。 如果不要求保留每天的备份,可以直接搞个延时从库。 |
7
guyskk 2016-10-12 22:51:30 +08:00 via Android
数据放到 LVM 磁盘上,通过磁盘快照做备份。也许可行。
|
8
msg7086 2016-10-13 03:10:51 +08:00
主从,随便拿了个 SSD-cached VPS 做的,一个月几欧元的样子。
|
10
sujin190 OP @ElmerZhang 大量数据 rsync 快还是 copy 快,同一台机器上的两块磁盘
|
13
noahzh 2016-10-13 11:15:01 +08:00
一个专用备份从库,每天用 mysqldump 备份,然后 lz4 压缩,同时也备份 master binlog
|
14
zqcolor 2016-10-13 11:57:07 +08:00
主从服务,从服备份, 同时也备份 master binlog
+1 |
15
ElmerZhang 2016-10-14 13:14:09 +08:00
@sujin190 增量的话 rsync 快,全量的话 cp 快。
还有一个方案是备库跑在 lvm 卷上,直接打快照 |
16
ElmerZhang 2016-10-14 13:31:01 +08:00
五年前我还调研过一个叫 NILFS 的日志型文件系统,当时还不成熟,现在不知道发展怎么样了,楼主可以看一下。
|
17
yghack 2016-10-14 14:45:24 +08:00
分库分表
主从 + 从库只读 + 从库备份 顺便拆分 binlog 备份 binlog |
18
Legendzhan 2019-09-20 17:22:48 +08:00
按表备份到响应的库中,前提是表不要搞的太大
|