相较于爬虫技术,反爬虫实际上更复杂。目前许多互联网企业都会花大力气进行“反爬虫”,网络爬虫不但会占据过多的网站流量,导致有真正需求的用户没法进入网站,另外也有可能会导致网站关键数据的外泄等现象。网络爬虫遍布互联网的各个角落,因此网络爬虫有好处也有坏处,接下来介绍一下和网络爬虫一同诞生的反爬虫技术,如何才能防止别人爬取自己的网站?
1、基于程序本身去防止爬取:作为爬虫程序,爬取行为是对页面的源文件爬取,如爬取静态页面的html代码,可以用jquery去模仿写html,这种方法伪装的页面就很难被爬取了,不过这种方法对程序员的要求很高。
2、基于iptables和shell脚本:可以对nginx的access.log进行策略定义,例如定义在1分钟内并发连接数超过30个ip为非法,如ip不在白名单内,则加入iptables策略封掉,当然这种的缺点是会有“误伤”,策略细粒度越小就会有更多的“误伤”,细粒度大就会使效果变差,另外还有类似的第三方工具fail2ban,利用做filter和actor对一些有危害的操作记录或是封ip。但是对于某个特定的爬虫地址(例如网易、有道)的爬取行为拒绝也很难准确做到,因为你无法准确知道这些特定的爬虫ip地址。注意:建议不要用封ip条目的方式,iptables列表长度是65535时就会封满,服务器也就会死机。
3.使用robots.txt文件:例如阻止所有的爬虫爬取,但是这种效果不是很明显。
User-agent: *
Disallow: /
4.使用nginx的自带功能:通过对httpuseragent阻塞来实现,包括GET/POST方式的请求,以nginx为例,具体步骤如下:
编辑nginx.conf
拒绝以wget方式的httpuseragent,增加如下内容
## Block http user agent - wget ##
if ($http_user_agent ~* (Wget) ) {
return 403;
}
## Block Software download user agents ##
if ($http_user_agent ~* LWP::Simple|BBBike|wget) {
return 403;
平滑启动
# /usr/local/nginx/sbin/nginx -s reload
如何拒绝多种httpuseragent,内容如下:
if ($http_user_agent ~ (agent1|agent2|Foo|Wget|Catall Spider|AcoiRobot) ) {
return 403;
}
大小写敏感匹配
### 大小写敏感http user agent拒绝###
if ($http_user_agent ~ (Catall Spider|AcoiRobot) ) {
return 403;
}
### 大小写不敏感http user agent拒绝###
if ($http_user_agent ~* (foo|bar) ) {
return 403;
}
注意语法:~*表示是大小写不敏感,~表示是大小写敏感
}
以上就是预防网站信息被别人爬取的一些方法,大量的爬取行为会对web服务器的性能有影响,所以一定要注重反爬虫措施。
相关文章内容简介
1 爬虫数据不可缺少是爬虫代理ip
爬虫数据不可缺少的工具就是爬虫代理ip,爬虫数据大家都已经不再陌生,就是通过爬虫技术,对目标网站的数据爬取,这样可以根据目标网站的数据,来调整自己的工作。爬虫数据不可缺少的工具就是爬虫代理。 爬虫在抓取的数据的时候,速度会很快,正式因为爬虫的速度太快,可能会导致一个IP访问过于频繁,这时对方网站就会有反爬虫技术,直接被检测出来,出现验证或者直接封IP的情况。出现这种情况后,就给爬虫工作带来了很大的困扰。 这时爬虫代理就是尤为重要,代理可以隐藏真是的IP,让对方网站服务器认为是我们自己的真实请求。在爬取数据的过程中,可以使用爬虫代理不断更换IP,这样就不会出现IP被封的情况了,达到很好的爬取效果。 爬虫代理在选择的时候也要多多挑选,因为爬虫的特殊性,所以找到效果好、合适的代理才能更好的完成工作。万变ip代理海量IP在线,多城市IP覆盖,更换IP速度快,可用率高达97%,是爬虫工作人员的最佳选择。... [阅读全文]
2 自动化的爬虫代理ip是什么意思?
自动化的爬虫代理ip是什么意思?如今很多人对于很多现代化的平台并不是十分信任,总觉得通过自己手动操作看到平台运行过程才能够更加放心。这种人虽然对工作更加负责,但是却更浪费时间。根据研究表明,人们在使用了万变代理ip资源之后,这种操作的速度明显比手动操作速度快了很多倍,节约了时间的同时还为工作创造更多的效益。 万变代理ip资源是代理资源的一种,它换高质量ip地址。和普通的爬虫代理平台相比,它的价格更适合普通大众,同时转化到了ip地址质量也更好。 万变代理ip资源的研发团队在研发的过程中,这已经无数次的测试了手动操作和自动操作之间的差别,得出的结果无一不是自动的更受人们欢迎。... [阅读全文]
推荐阅读
26
2019-12
p2p实现原理:穿透内网,连接动态ip,内网ip打洞
一片技术文章,最主要的讲清楚原理,如果再有完整的能运行的源代码也可,关键是要把核心部分代码分析清楚。
26
2021-03
爬虫采集类的代理ip质量有什么要求?
正如其名称所示,网络爬虫工作中使用的代理IP统称为爬虫代理IP。那么,爬虫代理IP有什么特点呢?所有的代理IP都可以用于爬虫工作吗?
02
2020-03
反爬虫战略用安全稳定代理IP
Header检查是最简单的反爬网机制,用于检查HTTP请求的头信息,包括用户代理、referer、cookies等。该解决方案是使用浏览器UA代码来伪装浏览器信息。Cookies是检查会话ID的次数。
14
2021-01
兔子爬虫使用代理ip是否可以畅通无阻?
互联网大数据时代,数据是根本,如何实现获取到自己目标的数据,这点我想只要从事大数据工作者都清楚,需要使用网络爬虫对目标服务器采集抓取有价值的信息数据。但目标服务器的限制成
15
2020-10
日常工作中使用免费代理ip的弊端
在工作生活中,经常会用到免费 代理ip ,比如数据挖掘、品牌监控、网络营销等等。目标网站会限制IP的访问频率和次数,这就是所谓的反抓取策略,所以日常工作需要免费代理ip的协助。
27
2020-10
雷电用了代理ip还是爬不上想爬的数据怎么办
用了 代理ip 还是爬不上想爬的数据怎么办?我们在使用 代理ip 爬虫类的时候,会遇到抓不到数据的情况吗?
热门文章
因为专业! 所以简单! 产品至上,价格实惠 是我们服务追求的宗旨
免费试用