2
wsy2220 2016-12-15 12:12:53 +08:00
自己编译呗
|
3
cxh116 2016-12-15 12:21:25 +08:00
表示用 arch 4.8 的内核,关机时 内核报异常, 等了个多月了还没有修复好.
用 lts 的内核没问题,但一些有编译模块的软件要重新装,比如 vbox. 禁用 acpi 可正常关机,但显卡又有问题. 现在关机都是报异常后长按 4 秒关机 -_-! |
4
qpdb 2016-12-15 12:49:58 +08:00
4.8.13-1-ARCH 没遇到问题
|
5
momi 2016-12-15 13:05:30 +08:00
4.9 刚出来没几天你就用上了,真是神速。
4.9.0-x86_64-linode79 ?看上去像是 vps 给你提供的,不能自己编译么? |
6
canfoderiskii 2016-12-15 14:09:01 +08:00 via Android
从不着急用新内核,肯定 bug 多。
|
7
s7lx OP |
8
kamen 2016-12-15 14:32:18 +08:00
Manjaro 的内核尚未更新到 4.9 ,就等着 Arch 吃螃蟹
|
9
jhytxy 2016-12-15 14:33:34 +08:00 via iPhone
哈哈哈急着上 bbr 是不是
|
10
kn007 2016-12-15 14:37:34 +08:00
原来是这样,我还以为是运营商问题。
不过不对啊,我还有朋友的 macbook 能上。。 |
11
s7lx OP @canfoderiskii 应该不是 bug ,毕竟经过 8 轮 rc 了,应该是加载模块的工具链还没升级或者其他的什么原因
@kamen Ubuntu 官方的大闸蟹已经出来了,我也装了……螃蟹了 @kn007 协议拉不起来,找了安卓和老的 OS X10.11.6 以及 Win7 来测试的,确定是内核更换的原因,换掉内核已经成功恢复了 |
12
mudkip 2016-12-15 19:58:15 +08:00
用 Linode 的同学新内核能上 bbr 么...
我换到 4.9 内核也无法打开 bbr 。 |
13
s7lx OP @mudkip 去网上找编译 hybla 的教程(有 for linode 的),然后把 tcp_hybla 换成 tcp_bbr ,就可以
|
16
kn007 2016-12-15 22:53:38 +08:00
我确实可以 pptp ,不过 bbr 效果不大。。。
|
17
kn007 2016-12-15 22:56:46 +08:00
modprobe gre
返回空 Dec 14 22:50:48 kn007 pptpd[13724]: CTRL: Client 58.?.?.74 control connection started Dec 14 22:50:49 kn007 pptpd[13724]: CTRL: Starting call (launching pppd, opening GRE) Dec 14 22:50:49 kn007 pppd[13733]: Plugin /usr/lib64/pptpd/pptpd-logwtmp.so loaded. Dec 14 22:50:49 kn007 pppd[13733]: pppd 2.4.5 started by root, uid 0 Dec 14 22:50:49 kn007 pppd[13733]: Using interface ppp0 Dec 14 22:50:49 kn007 pppd[13733]: Connect: ppp0 <--> /dev/pts/0 Dec 14 22:50:49 kn007 pppd[13733]: peer from calling number 58.?.?.74 authorized Dec 14 22:50:53 kn007 pppd[13733]: MPPE 128-bit stateless compression enabled Dec 14 22:50:54 kn007 pppd[13733]: Cannot determine ethernet address for proxy ARP Dec 14 22:50:54 kn007 pppd[13733]: local IP address 172.16.36.1 Dec 14 22:50:54 kn007 pppd[13733]: remote IP address 172.16.36.2 Dec 14 22:58:37 kn007 pppd[13733]: LCP terminated by peer (MPPE disabled) Dec 14 22:58:37 kn007 pppd[13733]: Connect time 7.8 minutes. Dec 14 22:58:37 kn007 pppd[13733]: Sent 5756502 bytes, received 470573 bytes. Dec 14 22:58:37 kn007 pptpd[13724]: CTRL: EOF or bad error reading ctrl packet length. Dec 14 22:58:37 kn007 pptpd[13724]: CTRL: couldn't read packet header (exit) Dec 14 22:58:37 kn007 pptpd[13724]: CTRL: CTRL read failed Dec 14 22:58:37 kn007 pppd[13733]: Modem hangup Dec 14 22:58:37 kn007 pppd[13733]: Connection terminated. Dec 14 22:58:37 kn007 pppd[13733]: Exit. Dec 14 22:58:37 kn007 pptpd[13724]: CTRL: Client 58.?.?.74 control connection finished 我只是用了 elrepo 更新到了 4.9 , header 等还是 2.6 。 https://kn007.net/topics/centos-6-safety-quickly-enable-tcp-congestion-control-algorithm-bbr/ 只感觉 bbr 提升不大 |
18
akwIX 2016-12-15 23:02:27 +08:00
linode 自己的内核太简约,你需要自己装官方的内核
|
19
Remember 2016-12-15 23:51:03 +08:00
BBR 提升很大,说提升不大的,可能你的网络特别好吧。
|
20
Arthur2e5 2016-12-16 01:08:42 +08:00 via Android
用 bbr 的别忘了 sysctl.conf 开个 net.core.default_qdisc = fq …
|
21
s7lx OP |
23
caotian 2016-12-16 14:05:19 +08:00
昨天折腾一晚上把 linode jp1 机房的 vps 换上了 4.9 内核开房了 bbr, ss 加速是有点提升的, 1 倍左右,原始 ss 大概只有 1k 多点 kbps, bbr 能提升到 2k 左右, 但是如果走 Kcptun 通道, 最快能达到 20k, youtube 上 4k 基本没问题,偶尔缓冲, 4k 以下都很流畅
|
26
ioiioi 2016-12-17 12:44:01 +08:00
bbr 提升效率的原理是什么呢?我总觉得网络是一个系统,不是单靠一台服务器的内核就可以提升效率的。
|
27
raysonx 2016-12-17 15:22:52 +08:00
@ioiioi 谈不上加速,只是相比传统的 TCP 流控算法来讲,带宽利用率更高。
可以简单地认为,两点之间的物理可用带宽是无法突破的,但传统的 TCP 流控算法检测到丢包就会降低发送速率进行退避,导致带宽利用率非常低,而 BBR 对丢包的敏感度不高 |
29
caotian 2016-12-26 11:15:06 +08:00
@yilin101 jp1 机房是 xen 的,网上找到的大多是 kvm 的。官网文档里有编译自己的内核的说明 https://www.linode.com/docs/tools-reference/custom-kernels-distros/custom-compiled-kernel-with-pvgrub-centos-7 ,不过带 bbr 内核的应该可以直接 yum 安装,所以需要自己注意下,不用自己编译了。
|
31
caotian 2016-12-26 11:40:26 +08:00
@yilin101 我用的 ubuntu ,开始也没成功,修改完切换内核就启不来了。然后后台切换回原内核启动后,重新来了一次就成功了。
|
32
yilin101 2016-12-26 12:10:18 +08:00
@caotian
https://www.kernel.org/pub/linux/kernel/v3.x/linux-3.19.3.tar.xz 改成: https://www.kernel.org/pub/linux/kernel/v4.x/linux-4.9.tar.xz mv /boot/vmlinuz /boot/vmlinuz-3.19.3-custom 是改成 mv /boot/vmlinuz /boot/vmlinuz-4.9-custom 吗? mkinitrd -o initrd-3.19.3-custom.img 也改成 mkinitrd -o initrd-4.9-custom.img ? |