大家好,又见面了,我是你们的朋友全栈君。
文章目录
- AWVS介绍
- AWVS10.5
- 扫描向导
- 报告分析(他扫的是真的慢啊)
- 各种功能
- Site Crawler (根据自己需要设置)
- HTTP Editor
- Target Finder (目标查找)
- Subodmain Scanner(子域名扫描)
- Authentication Tester(认证测试)
- HTTP Sniffer
- HTTP Fuzzer
- AWVS12
- 面板
- 过程
- AWVS10.5
AWVS介绍
awvs全称Acunetix Web Vulnerability Scanner,主要用于扫描web应用程序上的安全问题,如SQL注入,XSS,目录遍历,文件包含,参数篡改,认证攻击,命令注入等,是一款网络漏洞扫描工具。这里的教程分为新旧两版,两种版本各有优势。 旧版:移动的工具包 新版:方便快捷
AWVS10.5
扫描向导
1.下面的图是其主界面
2.新建栏,从上倒下依次是新建扫描,新建爬行,新建服务扫描,新建报告(基本英文),file栏,从上到下依次是新建,导入以前的扫描,保存扫描记录(我是不是有点啰嗦)
3.配置,点开configuration是一些配置,应用配置,扫描配置等等(挺齐全的)scanning profiles中的是一些扫描模块脚本,用来判断漏洞
4.扫描向导(新建scan会弹出),第一个框是扫描的地址,第二个框大意是之前如果爬过的话可以把爬行记录导入
5.扫描配置,第一个框是漏洞类型,一般默认全部,第二个框是扫描设置,一般也是默认,当然,也可以自己定义,点击scan settings后面的那个按钮进行设置,第三个框是爬虫,可以自主选择扫描哪些文件,也可以扫描多个链接(用txt导入)
6.扫描设置(感兴趣的可以看看,不感兴趣的直接跳过看这一部分内容)
- 收集信息的话需要勾选Enable port scanning,让他进行端口扫描
- GHDB,扫描一些敏感文件,全选就可以
- 爬虫设置,全是英文(对我这种英语不好的人来说,翻译必不可少),感兴趣的可以去查查都是啥意思
- 这是爬虫的文件过滤,*是全选的意思,exclude是直接跳过这些后缀的文件
- 目录和文件的过滤器,正则表达式形式。
- 代理的设置
- 深度扫描,开启就行
- cookie的设置,如果有这个网站的一些cookie值,可以加进去
- 端口的扫描,可以设置哪些端口不扫描
7.自动识别一些信息
8.登录,如果不登录爬虫是爬不到一些具体内容的,这个功能类似于一个录像,把你登录的过程和注销的过程录下来,按照录像进行深层次的爬行(就是在awvs中在登录一次,很简单)
9.第一个框是传感器,后面有具体讲解,第二个是爬到的链接,如果要扫描其中某一个就勾选,第三个框是保存,把这次的扫描进行保存,留着以后用
10.开始扫描
报告分析(他扫的是真的慢啊)
1.安全等级和漏洞危险级数
2.下一栏是目标信息,如能否响应,web服务器版本,操作系统等等
3.扫描时间,发出请求,响应时间
4.扫出的结果,web方面的漏洞
5.我们点进去看看,可以看到具体内容,看描述:此安全(https)页包含一个正在发布到不安全(http)页的表单。他们可能认为自己的数据是加密的,而事实上它不是。像失效链接这种东西就可能有用。site struction是扫描到的目录。
6.点击页面中report生成报告,点击红色部分导出
各种功能
Site Crawler (根据自己需要设置)
第一项:在扫描介绍的时候开启http sniffer是为了让用户手动浏览,防止爬虫没有爬到,当扫描快结束的时候会将没有爬到的弹出来 第二项:只爬行网站首页的链接(所有) 第三项:不抓上级目录 第四项:抓子目录 第五项:即使未连接也获取目录索引 第六项:处理robots.txt和sitemap.xml 第七项:忽略大小写 第八项:优先爬取这类文件 第九项:防止无限递归目录,如admin/admin/admin… 第10项:只请求链接的文件 第11项:忽略相应的文件格式 第12项:防止自定义404 第13项:有无www视为一个 第14项:启用输入限制探索法 第15项:禁止已知应用的路径操作 第16项:优化已知应用
HTTP Editor
右击打开,得到请求头,请求数据,结构分析之类的东西(可以修改)
可进行加密解密,选择协议,请求方式等等
Target Finder (目标查找)
扫描单个或范围内的ip,也可以得到请求头请求数据
Subodmain Scanner(子域名扫描)
输入的是根域名,没有 www的那种,同时可以选择DNS和时间,会扫描到类似xxxx.acunetix.com的域名
Authentication Tester(认证测试)
从上到下分别是认证地址,表单和http,错误关键字,用户名和密码的字典
他会自动检测输入框,然后分别与用户名和密码对应,设置关键字,start就行了。
HTTP Sniffer
跟brupsuite功能类似,抓包改包,设置好代理后就可以了
这里可以设置各种陷阱,类似于改包
设置陷阱后他会自动弹出,所有东西都是可以修改的
HTTP Fuzzer
这个功能跟brupsuite爆破功能类似。 抓包后复制粘贴到这个栏目,然后可以设置fuzzer过滤器,如规则的描述,规则的类型等等(有些webshell有跳转,响应码是302)
插入测试点,添加变量类型,如数字类型,字符类型,文件类型等等,载入字典就选文件类型。
在这里可以载入字典,txt格式
AWVS12
面板
新版的AWVS没有了许多工具,但是速度快了很多,最方便的就是在网页上,不会的英文可以直接翻译
过程
1.点击Targets,add Target进行添加网址,可以批量导入
2.可以填入账号密码,方便通过验证(也可以像旧版一样产生一个记录文件),同时可以加入不扫描的站点(如注销)
3.爬虫的相应设置
4.可以设置扫描速度,漏洞的危险程度,添加描述,设置连续扫描等等
5.点击scan,根据你想要的进行设置
6.新版的比旧版的简单很多,因为有翻译的存在,这个栏目可以查看漏洞,筛选漏洞,生成报告,查看漏洞详情
7.设置扫描策略,都选就行
只能说各有各的长处了
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/234757.html原文链接:https://javaforall.cn