V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
• 请不要在回答技术问题时复制粘贴 AI 生成的内容
pythonee
V2EX  ›  程序员

公司为了节约成本,将不同业务系统的 Schema 都塞到一个 MySQL 实例上,这样问题大吗

  •  
  •   pythonee · 2018-05-16 20:24:31 +08:00 · 3721 次点击
    这是一个创建于 2412 天前的主题,其中的信息可能已经有所发展或是发生改变。
    13 条回复    2018-05-17 16:51:39 +08:00
    vjnjc
        1
    vjnjc  
       2018-05-16 20:31:45 +08:00
    问题不大啊,只要 mysql server 的运算能力还够用就往里塞嘛~
    awing
        2
    awing  
       2018-05-16 20:57:40 +08:00
    那宕机了不就全挂了?
    gaoyulong
        3
    gaoyulong  
       2018-05-16 22:32:16 +08:00 via Android
    多大的业务量?
    cxbig
        4
    cxbig  
       2018-05-16 22:35:24 +08:00
    看规模和 IO,还有设计的好不好。
    f2f2f
        5
    f2f2f  
       2018-05-16 23:18:02 +08:00
    这个……能节约多少成本……
    dexterlei
        6
    dexterlei  
       2018-05-16 23:24:01 +08:00
    @f2f2f 多半节省的是云,或者硬件资源,如果是小公司,这种资源*n,会增加很多成本吧
    jssyxzy
        7
    jssyxzy  
       2018-05-17 00:35:32 +08:00
    要是够用, 何必加多个?
    要是可用性不高, 何必要多个?
    msg7086
        8
    msg7086  
       2018-05-17 06:28:59 +08:00
    没什么问题。看看外面虚拟主机上的共享 MySQL 跑了多少年了。
    mandy0119
        9
    mandy0119  
       2018-05-17 10:49:20 +08:00
    没问题,扔到一个实例上还能跑本身就证明了业务量不大
    flyingghost
        10
    flyingghost  
       2018-05-17 12:15:35 +08:00
    塞一个实例里:实例挂了不就都挂了吗?
    塞一个集群里:集群挂了不就都挂了吗?
    塞一个机房里:机房挂了不就都挂了吗?

    任何策略都有收益和代价,并不存在一定对的策略更不存在完美无缺的策略。看你自己选择了。
    meepoli
        11
    meepoli  
       2018-05-17 13:02:54 +08:00
    够用并且有性能冗余就行,这么跟你说吧~,国内一线大厂很多业务线也都是这么干的。
    meepoli
        12
    meepoli  
       2018-05-17 13:06:14 +08:00
    补充一下, 比几个实例放几个 schema 这种事情更重要的是异地多活吧?!
    julyclyde
        13
    julyclyde  
       2018-05-17 16:51:39 +08:00
    关键是别在多个 schema 之间建立 relationship
    其他都还好
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   953 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 19:21 · PVG 03:21 · LAX 11:21 · JFK 14:21
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.