我知道肯定是能的
只是突然想到对
http://xxxxxx.com/test/2333.php?id=1&xxxx=xxx&aaaa=123
http://xxxxxx.com/test/2333.php?id=1&xxxx=xxx&aaaa=233
http://xxxxxx.com/test/2333.php?id=1&xxxx=xxx&aaaa=333
http://xxxxxx.com/test/2333.php?id=1&yyyy=xxx&aaaa=233
类似这样的 url 进行去重
http://xxxxxx.com/test/2333.php?id=1&xxxx=xxx&aaaa=123
http://xxxxxx.com/test/2333.php?id=1&yyyy=xxx&aaaa=233
因为如果是爬虫检测漏洞的话以上 url 测试一个或者几个就可以了,没必要把整个网站所有这些参数的 url 的都测试一遍
用正则匹配或者其他方式实现感觉比较麻烦,而且效果不满意,可能有效果好的人家也不告诉你算法
只是突然又此想法,所以,有大神类似代码做参考吗 =.=|||
之前看到有 waf 用机器学习来识别恶意 url 的思路
1
glasslion 2017-05-10 16:54:20 +08:00
我知道肯定是能的
----------------------------- 别这么肯定 |
2
binux 2017-05-10 16:57:53 +08:00
作为人类,我都看不出来你这个去重的标准是什么,何况机器了。
|
3
stcasshern 2017-05-10 17:00:11 +08:00
你的例子似乎用正则就可以搞定,深度学习估计会有效果,但是能保证有必要吗。。。
|
4
xiaoyu233 OP @binux 思路是漏洞测试主要是测试这些 id 参数,判断 id 参数是否重复进行去重,这只是个例子,实际情况要略复杂一点,可能要考虑参数是那个文件,伪静态什么的
|
5
xiaoyu233 OP @stcasshern 感觉正则来判断挺复杂,反正我是不太容易能够实现想要的效果……
|
6
jadecoder 2017-05-10 19:12:29 +08:00
不一定哦,比如 method=xxx 或者 action=xxx 也去重吗
|
7
ipwx 2017-05-10 19:23:09 +08:00
现阶段机器学习只针对统计意义上的 majority 起作用。你这去重需要 domain knowledge,而且是个案个例的。所以我的评价是,不能。
|
9
wevsty 2017-05-10 22:35:56 +08:00
只是去重的话 HASH 算法不就行了么?
|