# wscan **Repository Path**: hazy_little_sky/wscan ## Basic Information - **Project Name**: wscan - **Description**: No description available - **Primary Language**: Python - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 0 - **Created**: 2020-04-07 - **Last Updated**: 2020-12-19 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README # wscan v2.4 wscan——一个基于协程的轻量级Web目录扫描器 写来平时用来打CTF,探测敏感信息和目录结构的,主要目的还是要优雅 、快捷一点 **:)** 适用于CTF这类网站页面不多,需要敏感文件、目录结构探测的网站扫描 ## 安装 ```bash $ python3 -m pip install wscan ``` ## 特性 - Fuzz网站目录 - 遍历爬取网站url - 多协程更效率 - 可随机User-agent - 自定义Fuzz后缀名 - 指定爬取协程数 - 404页面识别(粗略) - **友好的界面以及优雅快捷的使用方法 : )** ## Demo ![Demo](https://i.loli.net/2018/10/21/5bcbf4e2841b4.gif) ## 用法: **Type** ``-h`` **for help** :: $ wscan [-u URL] [-f] [-m] [Extend options] * **-u URL**: 目标URL * **-f**: 启用Fuzz功能 * **-m**: 启用链接爬取功能(就是遍历爬取,网站大的话会炸锅) * **-b BASE**: Fuzz的基址 **如:** -b /cms/app. \[ Default: / \] (将会从/cms/app为基础,在其后面添加字典路径进行Fuzz) * **-e EXTEND**: Fuzz的后缀名. [Default: php] * **-max NUM**: 协程最大值. \[ Default: 20 \] * **-t TIMEOUT**: 请求超时时间. [Default: 12] * **-404 NOT_FOUND**: 自定义404页面的关键字,用于判断自定义404页面。如: "Not found" * **-o**: 指定输出路径 * **-s**: 爬取静态资源链接(一般XSS、CSRF等题里面会用到静态资源如js,css,img等) * **--no-re**: 爬链接的时候禁止重定向 * **--no-map**: 在扫描报告中不输出站点结构图 * **-v,-vv**: -v显示详细信息,-vv显示最详细的信息 * **-h**: 帮助 #### 例子 ```bash $ wscan -u "http://www.example.com/" -f -m ``` ## 安装依赖 - Python >=3.5 - aiohttp - colorama - bs4 感谢开源作者 [maurosoria](https://github.com/maurosoria) 开源的 [dirsearch](https://github.com/maurosoria/dirsearch)为wscan提供的灵感以及Fuzz字典。 English Document ==================== wscan is a Fast & Simple web site scanner. Base on aiohttp and refer to the dirsearch of multi-threading version. Can both run on Linux & Windows. ## Install ```bash $ python3 -m pip install wscan ``` ## Features - Fuzz web site path - Mapping a site map - Multi-co-routine - User-agent randomization - Custom extensions - Custom maximum of co-routine - Friendly interface - Elegant and convenient :) ## Demo ![Demo](https://i.loli.net/2018/10/21/5bcbf4e2841b4.gif) ## Usage: **Type** ``-h`` **for help** :: $ wscan [-u URL] [-f] [-m] [Extend options] * **-u URL**: Target URL. * **-f**: Fuzz target url with dictionary . * **-m**: Crawl all URL on the target to get a map. * **-b BASE**: Base URL of fuzzing **e.g** -b /cms/app. \[ Default: / \] * **-e EXTEND**: Suffix name used for fuzzing. [Default: php] * **-max NUM**: Max num of co-routine. \[ Default: 20 \] * **-t TIMEOUT**: Requests timeout. [Default: 12] * **-o**: Output dir * **-404 NOT_FOUND**: Customize a 404 identification, it'll be used as a keyword for searching text. e.g. "Not found" * **-s**: Crawl static resources when mapping target. * **--no-re**: Don't redirect when requesting. * **-o**: Don't record site map in scan report * **-v,-vv**: Show more detail. * **-h**: Show this help message and exit. ### Example ```bash $ wscan -u "http://www.example.com/" -f -m ``` ## Requires - Python >=3.5 - aiohttp - colorama - bs4 ## 更新日志 #### V2.4.1 ##### 2019-12-16: 1. 修复Linux下字符重叠问题 #### V2.4 ##### 2019-12-15: 1. 修复bug: coroutine never wait 2. 修复bug: InvalidURL Error 3. 优化扫描日志输出 3.1 日志保存路径设置为当前目录(避免Linux下Permission Denied) 3.2 生成扫描后正常响应的请求路径记录,即日志中Web urls部分 4. 添加新特性 4.1 404页面识别(粗略),后面看情况添加simhash计算相似度,避免太臃肿。 4.2 指定请求超时时间、日志生成细节等参数 #### v2.3 ##### 2019/9/20 1. 优化爬虫协程以及站点展示