有个垃圾爬虫 /bot, robot.txt 屏蔽了仍然无法阻止, 所以想请教下如何直接在 cloudflare 那边直接屏蔽掉?
1
xuhaotian 2023-04-29 09:29:36 +08:00 via iPhone
查 asn 屏蔽整段 IP ?
|
2
coinsmask 2023-04-29 09:32:40 +08:00
@xuhaotian 不是屏蔽整段 ip, 是指屏蔽某个指定的爬虫 /bot, 在日志中看到了它, 想把它彻底屏蔽掉, 你屏蔽整段 ip, 不是倒水把孩子也一起倒出去吗?
另外请教下, 如果知道一个 bot/爬虫名字, 如何查到来源, 这样可以逆源谁做的这个 bot/爬虫? |
3
MoeMoesakura 2023-04-29 09:44:34 +08:00
@coinsmask 封 UserAgent
|
4
MoeMoesakura 2023-04-29 09:45:02 +08:00
@coinsmask 你的 Nginx 日志应该有 UA ,可以直接去找这个 UA
|
5
yaott2020 2023-04-29 09:46:28 +08:00 via Android
开个 5 秒盾?
|
6
leaflxh 2023-04-29 10:16:20 +08:00
进入到域名的面板,Security--->WAF--->create rule--->If incoming requests match… 下面可以选择 User-Agent -->Then take action…选择 block
|
7
ospider 2023-04-29 10:21:06 +08:00
robots.txt 是君子协定,估计也就搜索引擎会遵守,加这个没用的。楼上说的什么封 User-Agent 更没有任何卵用了,客户端能随便改的东西,你封了有啥意义?
开五秒盾还是很有意义的,可以挡住大部分不是精心构造就要爬你的爬虫,但是代价是牺牲一些用户体验。 |
8
herozzm 2023-04-29 10:59:34 +08:00 via iPhone
找到知道 ua ,host 反查确定是真的指定爬虫 ip ,block
|
9
baobao1270 2023-04-29 13:11:47 +08:00
1. 屏蔽 User-Agent
2. 打开「浏览器完整性检查」 |
10
MoeMoesakura 2023-04-29 15:08:22 +08:00
@ospider 虽然话是这么说,但是他是屏蔽「指定的爬虫」
|
11
ospider 2023-04-29 16:46:55 +08:00
@MoeMoesakura 我知道啊,问题就是这个“指定的爬虫”他肯定会伪装啊,没准楼主会觉得怎么把这个爬虫屏蔽了,又冒出来另一个了😂
|
12
cy18 2023-04-29 22:28:59 +08:00
@ospider LZ 既然在日志里看到了,应该就有特征,有特征就有办法屏蔽。爬虫当然可以伪装,但是伪装完就不是之前那个“指定的爬虫”了。
|
13
coinsmask 2023-05-02 12:02:01 +08:00
|
15
herozzm 2023-05-02 12:11:54 +08:00
|