从网站建立之后,经常性遭到各种扫描,各种机器人.. 查看网站日志,多到你可怕!那么有什么办法可以避免呢?
很简单,可以通过添加 Nginx 规则防止服务器被恶意扫描下载,暴力抗拒。
第一个方法:
在Nginx 规则中添加如下
代码语言:javascript复制server {
...
# 专治扫描户
rewrite .rar/?$ http://speedtest.tele2.net/100GB.zip permanent;
rewrite .tar/?$ http://speedtest.tele2.net/100GB.zip permanent;
rewrite .zip/?$ http://speedtest.tele2.net/100GB.zip permanent;
rewrite .sql/?$ http://speedtest.tele2.net/100GB.zip permanent;
rewrite .gz/?$ http://speedtest.tele2.net/100GB.zip permanent;
rewrite .7z/?$ http://speedtest.tele2.net/100GB.zip permanent;
# 或者使用
rewrite .(rar|zip|tar|sql|gz|7z)/?$ http://speedtest.tele2.net/100GB.zip permanent;
...
}
如果你觉得100G的相应时间太长的话也可以换成10G。
代码语言:javascript复制新加坡: http://lg-sin.fdcservers.net/10GBtest.zip
日本: http://lg-tok.fdcservers.net/10GBtest.zip
香港: http://lg-hkg.fdcservers.net/10GBtest.zip
方法二:
这个比较简单粗暴,就是直接禁止访问,资源下载类型的网站最好不要添加。
代码语言:javascript复制server{
...
# 禁止访问指定文件
location ~ .(zip|rar|sql|tar|gz|7z)$ {
return 444;
}
...
}
该规则就是直接禁止访问zip等文件来达到防止。
总结:
我个人是比较喜欢第一种,以暴制暴,让你下到爽,看你有多少流量。
收藏 | 0点赞 | 0打赏