BurpSuite日志分析导入SqlMap进行批量扫描-BurpLogFilter

https://github.com/tony1016/BurpLogFilter    一个python3写的,用于过滤BurpSuite日志的小程序

WHY?

为什么要写这个程序呢?强大的SqlMap支持使用BurpSuite的日志进行批量分析,但是BurpSuite的日志记录了所有走代理的流量,包括静态资源啊,重复的提交啊,这些都会影响SqlMap的分析效率。于是打算写一个小程序,可以做到:

  • 可以按照域名过滤请求
  • 可以自动过滤静态资源请求
  • 可以自动按照模式过滤URL,即相同URL和参数的请求,只会留其一(参数值对于SqlMap没有什么作用)  

    USAGE

    1.勾选BurpSuite输出日志(check the logging option)

  • 2.使用burplogfilter.py过滤日志(use burplogfilter.py to filter log file)

    Usage: python3 burplogfilter.py [options]
    
    Options:
      -h                                  Show this showHelp
      -f filepath                         The BurpSuite log to analyze
      --host keyword, --host=keyword      Host name filter
      -v                                  Show debug message
    
    Examples:
      python3 burplogfilter.py -f /tmp/burp.log --host=‘google.com‘ > burp-proxy.log

    3.使用SqlMap批量分析日志(Use SqlMap to batch analyze log)

    sqlmap -l burp-proxy.log --batch -smart

    4.查看分析结果(Check result)

    linux :ls /usr/local/Cellar/sqlmap/ 的output目录下windows: sqlmap下
  • 接下做一个渗透测试并发框架的安全研究,写出接入自动扫描脚本 ,啊啊啊

时间: 09-07

BurpSuite日志分析导入SqlMap进行批量扫描-BurpLogFilter的相关文章

BurpSuite日志分析过滤工具,加快SqlMap进行批量扫描的速度

BurpLogFilter 一个python3写的,用于过滤BurpSuite日志的小程序 A python3 program to filter BurpSuite log file. WHY? 为什么要写这个程序呢?强大的SqlMap支持使用BurpSuite的日志进行批量分析,但是BurpSuite的日志记录了所有走代理的流量,包括静态资源啊,重复的提交啊,这些都会影响SqlMap的分析效率.于是打算写一个小程序,可以做到: 可以按照域名过滤请求 可以自动过滤静态资源请求 可以自动按照模式

sqlmap批量扫描burpsuite请求日志记录

sqlmap可以批量扫描包含有request的日志文件,而request日志文件可以通过burpsuite来获取, 因此通过sqlmap结合burpsuite工具,可以更加高效的对应用程序是否存在SQL注入漏洞进行地毯式的扫描. 扫描方式通常有windows扫描与linux扫描两种. 一.Windows下扫描配置 1.配置burpsuite下记录所有的request记录,并保存在指定文件夹. 因为windows下sqlmap工具需要使用python,所以我的sqlmap路径放在了C:\Pytho

BurpSuite导出log配合SQLMAP批量扫描注入点

sqlmap可以批量扫描包含有request的日志文件,而request日志文件可以通过burpsuite来获取, 因此通过sqlmap结合burpsuite工具,可以更加高效的对应用程序是否存在SQL注入漏洞进行地毯式的扫描. 1.首先是burp设置记录log,文件名就随便填一个了. 2.把记录的log文件放sqlmap目录下 3.sqlmap读log自动测试: python sqlmap.py -l 文件名 --batch -smart batch:自动选yes. smart:启发式快速判断

sqlmap批量扫描burpsuite拦截的日志记录

1.功能上,sqlmap具备对burpsuite拦截的request日志进行批量扫描的能力 python sqlmap.py -l hermes.log --batch -v 3 --batch:会自动选择yes -l : 指定日志文件 -v: 调试信息等级,3级的话,可以看大注入的payload信息 2.如何配置burpsuite拦截扫描对象? 4.其他方式拦截的request日志文件,也可以 5.使用--smart智能探测效果不是很好,还是采用一些配置,加深扫描比较好 python sqlm

Burpsuite+sqlmap批量扫描sql漏洞

1.burpsuite设置导出log n'd'k 输入文件名保存 2.sqlmap批量扫描 python sqlmap.py -l 文件名 --batch -smart batch:自动选yes. smart:启发式快速判断,节约时间 中文支持可能存在问题 3.扫描的结果保存在 能注入的在上图csv文件中保存 注入的信息保存在对应的文件夹下的log文件,payload信息如下 来自为知笔记(Wiz)

ELK+redis搭建日志分析平台

ELK+redis搭建日志分析平台 1.ELK简介 ELKStack即Elasticsearch + Logstash + Kibana.日志监控和分析在保障业务稳定运行时,起到了很重要的作用.比如对nginx日志的监控分析,nginx是有日志文件的,它的每个请求的状态等都有日志文件进行记录,所以可以通过读取日志文件来分析:redis的list结构正好可以作为队列使用,用来存储logstash传输的日志数据.然后elasticsearch就可以进行分析和查询了. 本文搭建的的是一个分布式的日志收

大数据时代的全能日志分析专家--Splunk安装与实践

大数据时代的全能日志分析专家 --Splunk安装与实践 (  此文已刊发在<网络运维与管理>杂志  ) 0.背  景 随着大家对网络安全意识的提高,企业网管理人员,必须对IT基础设置进行监控及安全事件的管理,管理数据的数量和种类非常巨大,那么就需要有一款能否分析各种日志数据的工具,经过长期实践,为大家推荐Splunk这么一款全能型分析工具. 1.Splunk简介 Splunk是一款功能强大的.记录详细的日志分析软件,Splunk是基于原始日志数据(Raw data)内容建立索引,保存索引的同

转载:日志分析

MARK 日志分析: http://blog.csdn.net/pkueecser/article/details/9569251 大数据应用--系统监控与日志分析PPT http://wenku.baidu.com/link?url=8CJ-URMjVTVaw3GM1AZ2w9A7V0CIeRz3dx7xvysILLk6IdWpJGT889gQ7-824G4hAK-T2tdqZY1Lo6CEN1hgqHQNlHhVFykWJ_9XQW6EN5K ============= 日志在计算机系统中是

日志分析方法概述 &amp; Web日志挖掘分析的方法

日志在计算机系统中是一个非常广泛的概念,任何程序都有可能输出日志:操作系统内核.各种应用服务器等等.日志的内容.规模和用途也各不相同,很难一概而论. 本文讨论的日志处理方法中的日志,仅指Web日志.其实并没有精确的定义,可能包括但不限于各种前端Web服务器--apache.lighttpd.tomcat等产生的用户访问日志,以及各种Web应用程序自己输出的日志. 在Web日志中,每条日志通常代表着用户的一次访问行为,例如下面就是一条典型的apache日志: 211.87.152.44 – - [