Gospider是一款运行速度非常快的Web爬虫程序,Gospider采用Go语言开发。

功能介绍

1、快速Web资源爬取

2、爆破与解析sitemap.xml

3、解析robots.txt

4、生成和验证来自JavaScript文件的链接

5、链接搜索工具

6、根据响应源搜索AWS-S3

7、根据响应源搜索子域名

8、从Wayback Machine, Common Crawl, Virus Total, Alien Vault获取URL资源

9、格式化输出,可配合Grep使用

10、支持Burp输入

11、支持并行爬取多个站点

12、随机移动端/Web User-Agent

工具安装

go get -u github.com/jaeles-project/gospider

工具使用

Fast web spider written in Go – v1.1.0 by @theblackturtle

Usage:


  gospider [flags]

Flags:


  -s, --site string            待爬取的站点地址

  -S, --sites string           待爬取的站点列表

  -p, --proxy string          代理(例如: http://127.0.0.1:8080)

  -o, --output string         输出目录 

  -u, --user-agent string      需要使用的User-Agent

                                web: 随机Web User-Agent

                                mobi: 随机移动端User-Agent

      --cookie string         设置Cookie (testA=a; testB=b)

  -H, --header stringArray     设置Header

      --burp string          从Burp Http请求加载Header和Cookie

      --blacklist string       URL黑名单正则式

  -t, --threads int           并行线程数量 (默认为1)

  -c, --concurrent int         匹配域名允许的最大并发请求数(默认为5

  -d, --depth int              限制爬取的最大深度(设置为0则表示无限递归,默认为1)

  -k, --delay int              Delay是在向匹配域名发送新请求之前需要等待的时间间隔 (秒)

  -K, --random-delay int       RandomDelay是在创建新请求之前需要等待的额外随机等待持续时间 (秒)

  -m, --timeout int            请求超时(秒) (默认为10)

      --sitemap               尝试爬取sitemap.xml

      --robots                尝试爬取robots.txt 

  -a, --other-source           从第三方查找URL (Archive.org, CommonCrawl.org, VirusTotal.com)

  -w, --include-subs           包含从第三方爬取的子域名,默认为主域名

  -r, --include-other-source   包含其他资源的URL

      --debug                启用调试模式

  -v, --verbose                启用verbose模式

      --no-redirect            禁用重定向

      --version                检查版本

  -h, --help                   显示帮助信息

样本命令

爬取单个网站:

gospider -s "https://google.com/" -o output -c 10 -d 1

爬取网站列表:

gospider -S sites.txt -o output -c 10 -d 1

同时爬取20个站点,每个站点分配10个bot:

gospider -S sites.txt -o output -c 10 -d 1 -t 20

从第三方(Archive.org, CommonCrawl.org, VirusTotal.com, AlienVault.com)获取URL:

gospider -s "https://google.com/" -o output -c 10 -d 1 --other-source

从第三方(Archive.org, CommonCrawl.org, VirusTotal.com, AlienVault.com)获取URL并包含子域名:

gospider -s "https://google.com/" -o output -c 10 -d 1 --other-source --include-subs

使用自定义Header/Cookie:

gospider -s “https://google.com/” -o output -c 10 -d 1 –other-source -H “Accept: */*” -H “Test: test” –cookie “testA=a; testB=b”

gospider -s “https://google.com/” -o output -c 10 -d 1 –other-source –burp burp_req.txt

URL/文件后缀黑名单

gospider -s "https://google.com/" -o output -c 10 -d 1 --blacklist ".(woff|pdf)"

注意:Gospider默认配置下的黑名单为:.(jpg|jpeg|gif|css|tif|tiff|png|ttf|woff|woff2|ico)。

工具使用样例

视频地址:【点我观看

项目地址

Gospider:【GitHub传送门

* 参考来源:jaeles-project,FB小编Alpha_h4ck编译,转自FreeBuf