
有个垃圾爬虫 /bot, robot.txt 屏蔽了仍然无法阻止, 所以想请教下如何直接在 cloudflare 那边直接屏蔽掉?
1 stevenx 2023 年 4 月 29 日 via iPhone 查 asn 屏蔽整段 IP ? |
2 coinsmask 2023 年 4 月 29 日 @xuhaotian 不是屏蔽整段 ip, 是指屏蔽某个指定的爬虫 /bot, 在日志中看到了它, 想把它彻底屏蔽掉, 你屏蔽整段 ip, 不是倒水把孩子也一起倒出去吗? 另外请教下, 如果知道一个 bot/爬虫名字, 如何查到来源, 这样可以逆源谁做的这个 bot/爬虫? |
3 MoeMoesakura 2023 年 4 月 29 日 @coinsmask 封 UserAgent |
4 MoeMoesakura 2023 年 4 月 29 日 @coinsmask 你的 Nginx 日志应该有 UA ,可以直接去找这个 UA |
5 yaott2020 2023 年 4 月 29 日 via Android 开个 5 秒盾? |
6 leaflxh 2023 年 4 月 29 日 进入到域名的面板,Security--->WAF--->create rule--->If incoming requests match… 下面可以选择 User-Agent -->Then take action…选择 block |
7 4BVL25L90W260T9U 2023 年 4 月 29 日 robots.txt 是君子协定,估计也就搜索引擎会遵守,加这个没用的。楼上说的什么封 User-Agent 更没有任何卵用了,客户端能随便改的东西,你封了有啥意义? 开五秒盾还是很有意义的,可以挡住大部分不是精心构造就要爬你的爬虫,但是代价是牺牲一些用户体验。 |
8 herozzm 2023 年 4 月 29 日 via iPhone 找到知道 ua ,host 反查确定是真的指定爬虫 ip ,block |
9 baobao1270 2023 年 4 月 29 日 1. 屏蔽 User-Agent 2. 打开「浏览器完整性检查」 |
10 MoeMoesakura 2023 年 4 月 29 日 @ospider 虽然话是这么说,但是他是屏蔽「指定的爬虫」 |
11 4BVL25L90W260T9U 2023 年 4 月 29 日 @MoeMoesakura 我知道啊,问题就是这个“指定的爬虫”他肯定会伪装啊,没准楼主会觉得怎么把这个爬虫屏蔽了,又冒出来另一个了 |
13 coinsmask 2023 年 5 月 2 日 |
15 herozzm 2023 年 5 月 2 日 |