78模板网分享cms建站教程,提供网站模板、网站插件、办公模板等模板教程免费学习,找模板教程就上78模板网!

nginx 防盗链防爬虫配置详解

nginx 防盗链防爬虫配置详解

 新建配置配置文件 (例如进入到nginx安装目录下的conf目录,创建: agent_deny.conf)

禁止Scrapy等工具的抓取 if ($http_user_agent ~* (Scrapy|Curl|HttpClient)) { return 403; }

禁止指定UA及UA为空的访问

#forbidden Scrapy

if ($http_user_agent ~* (Scrapy|Curl|HttpClient))

{

  return 403;

}

#forbidden UA

if ($http_user_agent ~ "Bytespider|FeedDemon|JikeSpider|Indy Library|Alexa Toolbar|AskTbFXTV|AhrefsBot|CrawlDaddy|CoolpadWebkit|Java|Feedly|UniversalFeedParser|ApacheBench|Microsoft URL Control|Swiftbot|ZmEu|oBot|jaunty|Python-urllib|lightDeckReports Bot|YYSpider|DigExt|YisouSpider|HttpClient|MJ12bot|heritrix|EasouSpider|Ezooms|^$" )

{

  return 403;

}

#forbidden not GET|HEAD|POST method access

if ($request_method !~ ^(GET|HEAD|POST)$)

{

  return 403;

}

然后,在网站相关配置中的 server段插入如下代码: include agent_deny.conf;

重启nginx:

/data/nginx/sbin/nginx -s reload

测试 使用curl -A 模拟抓取即可,比如:

curl -I -A 'YYSpider' <<<a href="http://www.xxx.con%3e%3e/" rel="external nofollow">www.xxx.con>></a>

结果

[root@11 conf]# curl -I -A 'YYSpider' www.xxx.cn

HTTP/1.1 403 Forbidden

Server: nginx/1.12.0

Date: Wed, 24 Apr 2019 11:35:21 GMT

Content-Type: text/html

Content-Length: 169

Connection: keep-alive

模拟UA为空的抓取:

curl -I -A' ' <<<a href="http://www.xxx.cn>>" rel="external nofollow">www.xxx.cn>></a>

结果

[root@11 conf]# curl -I -A' ' www.xxx.cn

HTTP/1.1 403 Forbidden

Server: nginx/1.12.0

Date: Wed, 24 Apr 2019 11:36:06 GMT

Content-Type: text/html

Content-Length: 169

Connection: keep-alive

模拟百度蜘蛛的抓取:

curl -I -A 'Baiduspider' <<<www.xxx.cn>>>

[root@11 conf]# curl -I -A 'Baiduspider' www.xxx.cn

HTTP/1.1 200 OK

Server: nginx/1.12.0

Date: Wed, 24 Apr 2019 11:36:47 GMT

Content-Type: text/html

Content-Length: 612

Last-Modified: Fri, 12 Apr 2019 13:49:36 GMT

Connection: keep-alive

ETag: "5cb09770-264"

Accept-Ranges: bytes

UA类型

FeedDemon       内容采集

BOT/0.1 (BOT for JCE) sql注入

CrawlDaddy      sql注入

Java         内容采集

Jullo         内容采集

Feedly        内容采集

UniversalFeedParser  内容采集

ApacheBench      cc攻击器

Swiftbot       无用爬虫

YandexBot       无用爬虫

AhrefsBot       无用爬虫

YisouSpider      无用爬虫(已被UC神马搜索收购,此蜘蛛可以放开!)

jikeSpider      无用爬虫

MJ12bot        无用爬虫

ZmEu phpmyadmin    漏洞扫描

WinHttp        采集cc攻击

EasouSpider      无用爬虫

HttpClient      tcp攻击

Microsoft URL Control 扫描

YYSpider       无用爬虫

jaunty        wordpress爆破扫描器

oBot         无用爬虫

Python-urllib     内容采集

Indy Library     扫描

FlightDeckReports Bot 无用爬虫

Linguee Bot      无用爬虫

使用python验证

python验证

使用requests模块

import requests

# 最基本的不带参数的get请求

r = requests.get('http://192.168.28.229')

print(r.content)

使用urllib模块

import urllib.request

response = urllib.request.urlopen('http://192.168.28.229/')

print(response.read().decode('utf-8'))

返回403就表示起作用了。

b'<html>rn<head><title>403 Forbidden</title></head>rn<body>rn<center><h1>403 Forbidden</h1></center>rn<hr><center>nginx</center>rn</body>rn</html>rn'

nginx 防盗链配置

背景:防止第三方引用链接访问我们的图片,消耗服务器资源和网络流量,我们可以在服务器上做防盗链限制。

实现防盗链的方式有两种:refer方式和签名方式。

refer方式实现防盗链

工作模块:ngx_http_referer_module。

作用变量:$invalid_referer,全局变量。

配置域:server, location

配置:

server {

  listen 80;

  server_name www.aiyiliu.com refer-test.aiyiliu.com;

  root /usr/share/nginx/html;

  location ~*.(gif|jpg|jpeg|png|bmp|swf)$ {

    valid_referers none blocked www.aiyiliu.com;

    if ($invalid_referer) {

      return 403;

      }

   }

  }

 valid_referers: 指定资源访问是通过以下几种方式为合法,即白名单。 vaild_referers 有效的引用连接,如下,否则就进入$invaild_refere,返回403 forbiden。

 none:允许缺失的头部访问。

 blocked:允许referer没有对应值的请求。

 server_names:若referer站点域名与server_name中本机配的域名一样允许访问。

本文链接:http://78moban.cn/post/11394.html

版权声明:站内所有文章皆来自网络转载,只供模板演示使用,并无任何其它意义!

联系技术
文章删除 友链合作 技术交流群
1050177837
公众号
公众号
公众号
返回顶部