V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
通过以下 Referral 链接购买 DigitalOcean 主机,你将可以帮助 V2EX 持续发展
DigitalOcean - SSD Cloud Servers
donghao
V2EX  ›  VPS

原来搬瓦工还有这个限制

  •  
  •   donghao · 2016-01-16 18:42:03 +08:00 · 777 次点击
    这是一个创建于 3232 天前的主题,其中的信息可能已经有所发展或是发生改变。

    今天升级了它的 VPS ,小小地编译了一个软件。因为配置有问题,尝试了三四次,花了几个小时。越到后面越慢,就觉得不对劲了。上后台一看,居然收到了 warning 。

    本来配置就不怎么样,给多少我用多少。难道这也违背了TOS?

    Fair Share Policy - VPS service
    
    It is permitted to use all of the allocated resources without any additional limitations with the exception of CPU.
    
    We allow to max out CPU for short periods of time. However, please make sure that 1-hour average CPU load does not exceed the following levels:
    
    Micro-64 Plan: 10% of 1 core
    Micro-96 Plan: 13% of 1 core
    Micro-128 Plan: 15% of 1 core
    
    3G Plan: 20% of 1 core
    5G Plan: 20% of 1 core
    10G Plan: 25% of 1 core
    20G Plan: 50% of 1 core
    40G Plan: 75% of 1 core
    80G Plan: 100% of 1 core
    160G Plan: 100% of 1 core + 50% of 2nd core
    320G Plan: 100% of 2 cores
    480G Plan: 100% of 3 cores
    640G Plan: 100% of 4 cores
    960G Plan: 100% of 6 cores
    1280G Plan: 100% of 8 cores
    
    
    5G/512M Promo plan: 17% of 1 core
    10G/512M Promo plan: 17% of 1 core
    20G/1024M Promo plan: 25% of 1 core
    30G/4G RAM Promo plan: 50% of 1 core
    
    When your VPS uses more CPU time than described above for long periods of time, its CPU clock is automatically forced to the corresponding value (i.e., you will not be able to use more CPU cycles than shown above). You will see a corresponding message on the main screen of the KiwiVM control panel.
    
    Once high CPU load is removed, our system will automatically remove this limitation from your account.
    

    大家感觉合理吗?

    12 条回复    2016-01-18 10:10:10 +08:00
    datocp
        1
    datocp  
       2016-01-16 18:55:11 +08:00
    这种情况,只发生在你准备用 vps 编绎 openwrt
    softether openssl 出现进程 100%占用问题,平时基本是不大出现这种情况的。这么多小机依附母机,占用 CPU 资源被批评应该的。。。
    donghao
        2
    donghao  
    OP
       2016-01-16 18:59:14 +08:00
    @datocp 我可以理解为,平时不限制 CPU 资源。只有当长时间占用的时候才会强制降到 TOS 规定值以下,对吗?如果不是这样的话,平时用的就是分配给我的资源,为什么会影响到别人?
    xy2938
        3
    xy2938  
       2016-01-16 19:14:46 +08:00
    本来这个搬瓦工就不是用来编译使用的,限制资源就是合理的,其他的云,卖的时候有的就说明了只有 200Mhz , 500Mhz 之类的。而这种机制不管你影响别人与否,系统又不可能实时都去计算总负载,然后反馈给你一个平均的 CPU 资源。
    donghao
        4
    donghao  
    OP
       2016-01-16 19:17:03 +08:00
    @xy2938 那我可以在别的云,比如 DO 编译以后拿到搬瓦工用吗?
    datocp
        5
    datocp  
       2016-01-16 19:30:51 +08:00
    什么软件这么夸张,不可能连编绎个软件都不行,一般几分钟就结束了。尝试了三四次,花了几个小时这是什么大软件。

    平时用./configure --prefix=/my/local ,整体打包 /my/local ,邻近的系统也许也可以跑吧,对依赖这种情况不熟悉,尽量还是原机编译吧。
    donghao
        6
    donghao  
    OP
       2016-01-16 19:36:56 +08:00
    @datocp 谢谢!那假如在 DO 代编译,需要加 static 吗?
    datocp
        7
    datocp  
       2016-01-16 19:40:31 +08:00
    自己试试吧。平时习惯把自己用的软件编绎到一个自定义目录,所以如果搬瓦工用 debian 8 ,整体打包到 z.com 同样的 debian 8 系统看起来 ocserv 也可以运行,没用到 static 。。。不过对这种情况估计不足,害怕遇到其它不清楚的问题,所以最后实际又在 z.com 的主机编绎一次。。。
    xy2938
        8
    xy2938  
       2016-01-16 20:06:23 +08:00
    @donghao 大哥,都有依赖的,编译器不同也不可以,不要搞这种事情。
    搬瓦工主要是跑那些发行版的软件,直接拿来主义。
    rainy3636
        9
    rainy3636  
       2016-01-16 20:57:01 +08:00
    1st. 远离 openvz
    xrui
        10
    xrui  
       2016-01-16 21:21:47 +08:00 via Android
    超售同时保持稳定,搬瓦工的超售神话就是这么来的
    AII
        11
    AII  
       2016-01-17 08:37:09 +08:00 via iPhone
    如果进行工程量很大的编译的话 VPS 根本行不通, CPU 一直保持高负载会被封号。
    要上 AWS 、 Azure 这类专为大数据计算而生的云服务。
    msg7086
        12
    msg7086  
       2016-01-18 10:10:10 +08:00
    所有的 VPS 都是带超兽的。比如一共有 16 个核心的机器,不可能只卖给 16 个人,正常情况下可以卖 100 个甚至更多,这种情况下就有很多机器共享一个核心,卖给你的也是一个核心的十分之一甚至更少。
    你可以短时间偶尔用满一个核心,但是长期用的话还是要限制到一个很低的数值,保证别人能正常使用。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5257 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 30ms · UTC 07:22 · PVG 15:22 · LAX 23:22 · JFK 02:22
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.