看到一篇文章,基本的说法的 1.x 需要按照顺序,但是 2 使用了 stream。
2)所谓请求阻塞意思就是一条 TCP 的 connection 在同一时间只能允许一个请求经过,这样假如后续请求想要复用这个链接就必须等到前一个完成才行。 3 )之所以有这个问题就是因为 HTTP1.x 需要每条请求都是可是识别,按顺序发送,否则 server 就无法判断该相应哪个具体的请求。
但是 1.x 的请求不可以识别吗?不是有 http 请求头可以对应吗? 还是说同一类型请求的多次发送?
1
rrfeng 2018-08-14 09:36:28 +08:00 via Android 1
我同样的请求连续发两次,你知道哪个是哪个吗?
|
2
snail1988 2018-08-14 09:38:07 +08:00 1
1.x 的数据流顺序和完整性是直接基于 TCP 的
2 的数据流是在 TCP 的里面又加了一层 mux 的结构 Stream,一条 TCP 连接可以同时传输多个 Stream 可以看看 http2 的标准文档,再找个 http2 的实现源码 |
3
zhujinliang 2018-08-14 09:41:16 +08:00 via iPhone 1
HTTP1 想要复用链接,必须指定 Content-Length,或者使用 Chunked 编码,否则不能知道什么时候一次请求结束,只能靠断开 TCP 链接结束一次请求
|
4
zpf124 2018-08-14 09:45:43 +08:00 1
http 1.0 应该完全没 这些问题,因为他 tcp 链路都不复用。一个 tcp 三次握手发一个请求就断开了。如果都用 1.0 的协议,人多了服务器就要炸了。
假设 在 http 1.1 下 出现了同时发多个请求的情况, 我觉得会出问题的不是服务端,而是客户端。 比如 client 请求了 /api/user 不等返回响应,立马发送新的请求 /api/top, 这里确实可以做到 服务可以识别到不同的请求, 但如果 top 的结果先一步算出来,要不要返回?返回了的话 client 怎么判断 当前返回的数据时 user 的还是 top 的? |
5
nfroot 2018-08-14 10:40:26 +08:00 1
现在能做的事情大部分以前都能做到,但是前提是要想得到,用得上才实际。
就好像人类的祖先,最重要的是活下来,才有空去研究和改进,然后一步步改进,你让他一次性考虑完全、完整,那早都饿死了。 协议一定下来,就很久都不会去改变了,要不然别人没法用的。 |
6
est 2018-08-14 10:46:57 +08:00 1
http/1.1 其实有 pipeline 特性,不过大家都不怎么支持。支持了的都说是用来跑分作弊的。
不过就算 pipeline,也得严格讲究顺序。还是会有 head of line blocking。 |
7
imn1 2018-08-14 10:55:53 +08:00 1
我以前 python 写过 http1.1 一个 connection 多次请求的 socket(client),爬虫用
请求和得到应答部分是成功的,但水平不够,搞不定容错部分,放弃了 |
8
gamexg 2018-08-14 11:36:24 +08:00 1
楼上说的差不多了。
http1.1 支持的是顺序流,即客户端连续发出多个 http 请求,服务器按顺序处理,处理完第一个就发送第一个的回应,然后处理第二个并发送第二个的回应。缺陷是如果第一个请求响应延迟很大,例如是个长连接推送,那么之后的请求就别想等到回应了,所以实际浏览器并没有用这个功能。 http2 的是将单个 tcp 连接拆分成多个流,并发的多个请求分别通过不同的流发出及接收,即使中间某个请求时长连接也不会出现什么问题,他只会阻塞自己所在的流,其他请求一样可以正常返回。 |
9
gamexg 2018-08-14 11:39:01 +08:00 1
@gamexg #8 另外补充下,靠谱的 http 服务器如果实现 http 协议正确,能够分清楚每个 http 请求,那么默认就应该是支持 http1.1 pipeline 的。
|
11
gamexg 2018-08-14 13:49:42 +08:00
@est #10 实际前端负载均衡按标准实现 http 协议就没问题。他只管读取请求,转发到后端,获得后端响应,转发响应给浏览器。
读取 http 请求时只要可靠的实现了 http 协议,那么应该只读取了第一个请求,剩下的请求的还在缓存区,下个循环时才会读取到。 当然我也见过非常烂的代码,读完第一个请求后不管缓存区是不是还有数据就直接丢弃了... |
12
est 2018-08-14 14:09:18 +08:00
|