1
wzwb 7 小时 44 分钟前 via Android
ParadeDB
|
2
wangbin11 7 小时 30 分钟前
我没登录账号逛 v 站,都的登录上来喷两句,你们的缓存呢中间件呢,全靠 es 撑着啊,es 的集群都多大了
|
3
MADBOB 7 小时 26 分钟前
我比较好奇...是做啥的...300w 个商品? 1k 个客户看着也不像零售呀
|
5
lazyfighter 7 小时 21 分钟前
mark es 写入慢跟大促有啥关系,qps 高了,导致写入性能低, 低多少呢
|
7
zgscwjm OP @lazyfighter 大促的时候,商品的基础价格,返点有变化,通过 spark 计算后,全量同步到 es 上,现在写入的过程中,会把 es 集群的 cpu.io 打满.导致其他服务查询 es 的时候超时
|
8
31415926535x 5 小时 44 分钟前
一个索引的话拆分索引试试,大促要扩机器
数据变更接受多少的延迟呢,写入可以走 mq 慢慢写么,或者改成批量写入操作 查询的数据需要精确度很高么,金额之类的如果可以忽略个位数,应该可以减少部分写入操作 |
9
yn1024 5 小时 25 分钟前
1 、引入 kafka ,把写入变得平滑一些,防止 ES 挂掉(但可能牺牲写入速度)
2 、加一层 redis ,应付高并发查询 3 、把数据(商品信息)做分片,多加几个 ES 实例,不同实例处理不同分片,上面加聚合层 |
10
tidaizhe 4 小时 45 分钟前
看起来像是做商超的
|
11
zgscwjm OP @31415926535x 多个分片,就是硬件资源有限,拆分索引会冗余存储商品信息.商品的基础变更会被放大.现在是直接用 spark 往 es bluk 写入,会把机器拖死,已经调整了 es 的 refresh_interval,等参数.商品价格,折扣对精度有要求.引入 kafka/mq 中间件这些的之前有考虑过,可以缓解 IO,但是更多的是想在结构上进行调整.
|
12
me1onsoda 2 小时 14 分钟前
300w 这个数据量很大吗,需要考虑那么多吗
|
13
SorcererXW 1 小时 59 分钟前
10w/天的数据量,qps 才 1 ,活动期间多个数量级算是 10qps ,不太能理解 es 为什么会消费不过来
|
15
zgscwjm OP @SorcererXW 大促 100w 的商品变动,要乘以 1000 的客户数.
|