
我知道肯定是能的
只是突然想到对
http://xxxxxx.com/test/2333.php?id=1&xxxx=xxx&aaaa=123 http://xxxxxx.com/test/2333.php?id=1&xxxx=xxx&aaaa=233 http://xxxxxx.com/test/2333.php?id=1&xxxx=xxx&aaaa=333 http://xxxxxx.com/test/2333.php?id=1&yyyy=xxx&aaaa=233 类似这样的 url 进行去重
http://xxxxxx.com/test/2333.php?id=1&xxxx=xxx&aaaa=123 http://xxxxxx.com/test/2333.php?id=1&yyyy=xxx&aaaa=233 因为如果是爬虫检测漏洞的话以上 url 测试一个或者几个就可以了,没必要把整个网站所有这些参数的 url 的都测试一遍
用正则匹配或者其他方式实现感觉比较麻烦,而且效果不满意,可能有效果好的人家也不告诉你算法
只是突然又此想法,所以,有大神类似代码做参考吗 =.=|||
之前看到有 waf 用机器学习来识别恶意 url 的思路
1 glasslion 2017-05-10 16:54:20 +08:00 我知道肯定是能的 ----------------------------- 别这么肯定 |
2 binux 2017-05-10 16:57:53 +08:00 作为人类,我都看不出来你这个去重的标准是什么,何况机器了。 |
3 stcasshern 2017-05-10 17:00:11 +08:00 你的例子似乎用正则就可以搞定,深度学习估计会有效果,但是能保证有必要吗。。。 |
4 xiaoyu233 OP @binux 思路是漏洞测试主要是测试这些 id 参数,判断 id 参数是否重复进行去重,这只是个例子,实际情况要略复杂一点,可能要考虑参数是那个文件,伪静态什么的 |
5 xiaoyu233 OP @stcasshern 感觉正则来判断挺复杂,反正我是不太容易能够实现想要的效果…… |
6 jadecoder 2017-05-10 19:12:29 +08:00 不一定哦,比如 method=xxx 或者 action=xxx 也去重吗 |
7 ipwx 2017-05-10 19:23:09 +08:00 现阶段机器学习只针对统计意义上的 majority 起作用。你这去重需要 domain knowledge,而且是个案个例的。所以我的评价是,不能。 |
9 wevsty 2017-05-10 22:35:56 +08:00 只是去重的话 HASH 算法不就行了么? |