1
opengps 2020-07-13 20:41:54 +08:00 1
你怎么确定源站服务器性能没问题?你这么疯狂爬取,最大的问题就是源站压力,每秒 50,一个页面怎么说也得有几次的硬盘读取,普通硬盘的话 io 可能已经到了极限了
|
2
winnerczwx OP @opengps 因为我也想知道是不是源站服务器有压力...所以在爬取过程中也访问了源站的页面, 依旧是瞬间打开.... 一个页面没多少东西,去掉页头页尾和一些广告,正文部分只有几百字
|
3
guochao 2020-07-13 21:16:19 +08:00
祭出祖传 brendan gregg 的图
http://www.brendangregg.com/Perf/linux_observability_tools.png 这玩意儿建议你在本地做个 benchmark 。如果本地做不了,就监测服务器的指标,主要是 CPU 使用率、CPU 负载、内存、SWAP 、磁盘 bandwidth 、磁盘 iops 、磁盘 latency 、带宽占用、网络延迟这些。要不然谁都不知道你这是什么问题 监控是比较模糊的。有条件的话还做全栈追踪,比如说试试看 zipkin 这类东西,看看具体什么东西在哪里花了多久。 |
4
heiheidewo 2020-07-13 21:22:58 +08:00 1
真特么服了楼主这种,我以前碰到一个人爬我的数据,nginx 设置了单个 ip 每秒请求 100 次,活生生被这个人打满了,最后我也没屏蔽他的 IP 。
恶意爬虫就应该被抓起来批斗 |
5
winnerczwx OP @guochao 感谢!
|
6
winnerczwx OP @heiheidewo 请问怎样的爬虫属于善意, 怎样的又属于恶意?
|
7
heiheidewo 2020-07-13 21:38:39 +08:00
@winnerczwx 只要影响了别人网站的业务就是恶意爬虫,要是不影响那就无所谓吧
|
8
just1 2020-07-13 21:42:37 +08:00
top 看一下系统资源占用吧
|
9
jugelizi 2020-07-13 21:44:31 +08:00 via iPhone
控制频率是每个爬虫工程师值得做的事情
|
10
winnerczwx OP @heiheidewo 我在评论里回复了, 爬取过程中我访问他页面是瞬间打开的, 跟平时没有区别... 而且当时在凌晨, 那个时间段我估计他网站也没有流量
|
11
winnerczwx OP @just1 cpu 在百分之 40-50 左右, 内存在百分之十几
|
12
jones2000 2020-07-14 01:19:58 +08:00
都是开源的直接看源码呗, 查下这个并发是同时启动 500 个线程吗?如果不是,就改源码同时开 500 个线程同时抓。
|
13
jones2000 2020-07-14 01:20:14 +08:00
先确保你这个“并发设置是 500” 是 1 个进程里同时开 500 个线程去抓取吗? 还是使用多进程+多线程的方式达到 500 个同时抓。
|
14
herozzm 2020-07-14 01:35:15 +08:00
我用 go 写的爬虫,家用带宽,爬的外面的多个网站,1000 多并发一点问题没有啊
|
15
locoz 2020-07-14 09:05:04 +08:00 via Android
你可以打日志记录一下请求、解析、入库这三步每一步的耗时,这样就能很直观地看出哪一步慢、哪一步会被别的东西卡住了,然后再继续细化日志粒度、结合断点就能找到问题点。
另外,单机 50 并发对于单个网站而言已经挺高了,更别提 500 了…建议别搞那么高并发,对你自己好对别人服务器也好。 |
16
locoz 2020-07-14 09:10:36 +08:00 via Android
@heiheidewo #7 也不一定,涉及到别人的利益也可以是恶意爬虫🤣
|
17
imdong 2020-07-14 10:13:09 +08:00
并发跑 500 。不知对方是什么网站,怎么得罪人了...
一秒跑 50 个,对于普通个人小站来说,已经是挺大的负载了(如果都是动态页的话)。 楼主不妨本地建一个,镜像站,然后你爬 127.0.0.1 试下能不能上去。 |
18
warcraft1236 2020-07-14 10:43:30 +08:00
scrapy 的并发配置贴出来看看?
|
19
d0v0b 2020-07-14 12:22:43 +08:00
@winnerczwx 恶意爬虫我的理解就是影响别人赚钱了,else 你爱咋咋滴
|
21
Kvip 2020-07-20 16:54:51 +08:00
还是各位大佬勇啊,我搞爬虫从来不敢搞那么大并发,我开线程都不敢超过 50 个。一是人家运营网站也不容易,我们算是白嫖就别那么过分。其次是并发量太大,人家后台很容易看出来的,哪天被找上门了都没得后悔,毕竟很多爬虫都是违法的。
|
22
2088TXT 2020-07-24 10:55:41 +08:00
原则上不遵守 robots.txt 的不都是恶意爬虫 ?
|