1
JustinJie OP 求大佬临幸 ~
|
2
JustinJie OP 我订
|
3
dswyzx 2019-10-18 11:35:11 +08:00
才 400w 啊.用代码的话只要别一条一条处理也不怕
|
5
zgzhang 2019-10-18 11:39:52 +08:00 1
我能想到的步骤如下:
1. 新老表双写,读老表 2. 数据迁移,400W 条数据迁移应该很快 3. 抽样对比数据,看下是否 OK 4. 灰度读数据到新表 5. 老表下线 |
6
telami 2019-10-18 11:40:15 +08:00 2
一般来说三种方式:
1、sql 脚本,能用 sql 处理的,一定用 sql,成本最低。看你的数据是不是经过大的处理,如果是要用到外部一些数据,这种就不推荐了。 2、python 脚本,好处是想咋写咋写,400 万数据也不多,用完一次就扔掉,不用重复上线。 3、代码,代码的话看场景,设计多个表,甚至需要一些外部 api 数据处理,这就只能用代码了,但是同步数据得上线,上完线还得删,就比较麻烦。 |
7
CoCoMcRee 2019-10-18 11:41:31 +08:00 1
这么点数据量, 找个 NaviCat 之类的工具 同步下就行了吧
|
8
taotaodaddy 2019-10-18 11:42:34 +08:00 via Android 1
如果数据处理规则很简单就用 sql
如果比较复杂就 python 走一波,用完即扔 |
9
taogen 2019-10-18 11:47:51 +08:00 1
用脚本或者代码,对比两个库,生成最终的 SQL 文件。新库中,清空对应的表,执行 SQL 文件。
|
10
xxdd 2019-10-18 12:15:02 +08:00 1
写 sql 脚本吧 这个迁移应该不涉及数据比对
|
11
JustinJie OP @zgzhang # 5
1. 新功能上线貌似就没有使用老表了, 新功能没有向之前表插入 2. 数据迁移 怎么弄 ? 我主要就是想问下这个怎么实现 之前没有弄过 3. 抽样对比数据 到时候肯定是要测的 4. 灰度是个啥意思 ? 我研究下 @telami # 6 1. 我暂时只想到了一个用程序读取老表然后插入新表的办法, sql 脚本暂时还不知道如何去写 2. python 脚本 不怎么会 没怎么研究过 我这边是弄 Java 的 3. 是的 我也是这么想的 代码比较麻烦 而且我只想到循环处理 肯定耗时性能也不好 @CoCoMcRee # 7 好的 我研究下同步工具 但是我两个表的字段 名称不一样 还有些字段不同 不知道能不能处理 @taotaodaddy # 8 好的 感谢 @taogen # 9 你的意思是用代码 生成 对应 sql 语句 然后去执行 ? 我也有这么考虑的 @xxdd # 10 嗯 都比较推荐 sql 脚本 我向下 数据比对 这个是什么意思 ? |
12
JustinJie OP 我顶 !
再次召唤大佬~ |
13
JustinJie OP 再顶 !
|
14
JustinJie OP 大佬们, 周五已经下班了吗~
|
15
wuwukai007 2019-10-18 14:21:11 +08:00 1
pandas read_sql
pandas to_sql 注意缺失值处理一下,应该蛮快的。 |
16
JustinJie OP @wuwukai007 # 15 Python ? 我先看下
|
17
markgor 2019-10-18 14:53:52 +08:00 1
表有區別就不能跑同步了,
就算是 dump 出來,你也 source 不了進去。 所以老老實實寫腳本。 具體點就是: 1、寫腳本,建測試庫 2、測試腳本用測試庫的資源。 3、和後端商議個時間做切換。 4、鎖庫腳本同步數據 5、後端切換數據 6、測試下 7、休息 |
18
JustinJie OP |
19
lazyfighter 2019-10-18 15:25:24 +08:00 1
kettle
|
20
JustinJie OP @lazyfighter # 19 好的 我看下
|
21
MorpheusAnchor 2019-10-18 15:38:50 +08:00 1
做过类似的 几十个表吧 逻辑处理比较复杂 用 python 一条一条写的,但是可复用,因为是公司的产品,部署出去的
|
22
zgzhang 2019-10-18 16:10:17 +08:00 1
@JustinJie 你的服务如果在迁移期间可以停止服务,那同步数据用脚本还是 sql 都可以。但是你确定迁移期间没有数据修改的问题吗?
|
24
JustinJie OP |
25
markgor 2019-10-18 17:22:40 +08:00 1
@JustinJie java 不清楚,我是直接 PHP 跑腳本
主進程讀 1K 條就 fork 個子線程出來跑插入, 然後插入失敗就寫個 log (完整的 SQL 語句), 最後在跑一次失敗 log 裡面的記錄。 因為是一年前的事,大概就這些, 你的環境我不清楚,我當時是異地的,數據量不算大,好像幾十萬筆記錄, 注意下網絡超時和新數據庫的格式就可以了( mysqlmax_allowed_packet,還有 MYSQL 特性是否一致)。 對了,mysql 還有個 max_connections。 實話實說,你不缺時間的就一條條跑,失敗的記錄起來,然後打牌的打牌,喝酒的喝酒,跳舞的跳舞,每個一會看看有沒出錯就可以了。最後跑完就看看失敗的 log 裡面有沒 SQL 語句記錄,數量不多直接就在新數據庫裡運行裡面的語句。 good luck |
26
lufeng08 2019-10-18 17:32:54 +08:00 1
做过类似的,一个论坛重构,几千万条帖子,几亿个回复,跨服务器迁移,写接口实现,然后写 shell 脚本请求接口,每页多少条数据可以配置,先每页 100 条执行,根据测试结果慢慢往上加,比如加到 2000,400 万条数据,每次迁移 2000 条,也就 2000 秒执行完毕。
|
27
zpfhbyx 2019-10-18 18:50:43 +08:00 1
先双写啊,新库带老库的主键 id 插入到新库,然后查新库最小 id, 然后 while(true) 老库主键作位移,一次 1000 ,然后新库, insert 批量插入, 保你 5kw 数据没问题
|
28
CoooooolFrog 2019-10-18 19:23:56 +08:00 1
如果允许服务短时间不可用,简单点直接 mysqldump。
如果不允许服务不可用,双写表,数据同步完以后清理旧表,全部迁移新表。 |
29
lufeng08 2019-10-19 12:14:57 +08:00 1
有句话不知当讲不当讲,我们做了一个提升新手生产力的脚手架,也开发了好多应用上架了,都免费了,你可以参观下,可以拿来二次开发
https://www.gepardshop.com/appstore |