尽管现在VPS的可选品牌很多。但VirMach这家美国主机商还是非常受欢迎的。性能稳定。价格低廉是他们的优势。故而在国内是有口皆碑的。nginx环境是最受欢迎的WEB服务器。网络上的爬虫非常多。有对网站收录有益的。比如百度蜘蛛(Baiduspider)。也有不但不遵守robots规则对服务器造成压力。还不能为网站带来流量的无用爬虫。
为了禁止垃圾User Agent爬虫抓取网站。达到节省宽带和节省资源的目的。就得想办法禁止垃圾User Agent爬虫来抓取自己的网站了。这里小编就给大家分享下NGINX下是如何实现禁止无用User Agent抓取网站的。
在/usr/local/nginx/conf/rewrite目录下新建agent_deny.conf文件【lnmp默认目录】。内容如下:
#禁止Scrapy等工具的抓取
if ($http_user_agent ~* (Scrapy|Curl|HttpClient)) {
return 403;
}
#禁止指定UA及UA为空的访问
if ($http_user_agent ~ “FeedDemon|JikeSpider|Indy Library|Alexa
Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft
URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports
Bot|YYSpider|DigExt|YisouSpider|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms|^$”
) {
return 403;
}
#禁止非GET|HEAD|POST方式的抓取
if ($request_method !~ ^(GET|HEAD|POST)$) {
return 403;
}
然后再需要使用的网站配置文件中加入如下内容:
include agent_deny.conf;
好了后。重启下你的nginx即可。nginx下就禁止了无用User Agent抓取网站内容了。
本文地址:https://gpu.xuandashi.com/16172.html,转载请说明来源于:渲大师
声明:本站部分内容来自网络,如无特殊说明或标注,均为本站原创发布。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。分享目的仅供大家学习与参考,不代表本站立场!