ip代理异端爬虫:自己构建IP代理池
最近无意中看到一个开源代理词项目,在GitHub上有近5000的Star,我试用了一下,感觉还不错,也发现了一些小问题,让其更加可用,由此在这里做个分享。
github项目截图
我们平常都会抓西刺,或者一些提供免费代理的网站,本项目的IP来源也是如此,在他的项目内有这样的注释:
\"\"\"
66ip.cn
data5u.com
xicidaili.com
goubanjia.com
xdaili.cn
kuaidaili.com
cn-proxy.com
proxy-list.org
www.mimiip.com to do
\"\"\"
上面都是都是可以爬免费代理的网站。免费代理的采集也很简单,无非就是:访问页面页面 —> 正则/xpath提取 —> 保存。代码里已经有了,我这里就不多做说明,贴上部分抓取代码
@staticmethod
def freeProxyTen():
\"\"\"
云代理 http://www.ip3366.net/free/
:return:
\"\"\"
urls = ['http://www.ip3366.net/free/']
request = WebRequest()
for url in urls:
r = request.get(url, timeout=10)
proxies = re.findall(r'(\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3}) [\s\S]*?(\d+) ', r.text)
for proxy in proxies:
yield \":\".join(proxy)
@staticmethod
def freeProxyEleven():
\"\"\"
IP海 http://www.iphai.com/free/ng
:return:
\"\"\"
urls = [
'http://www.iphai.com/free/ng',
'http://www.iphai.com/free/np',
'http://www.iphai.com/free/wg',
'http://www.iphai.com/free/wp'
]
request = WebRequest()
for url in urls:
r = request.get(url, timeout=10)
proxies = re.findall(r'\s*?(\d{1,3}\.\d{1,3}\.\d{1,3}\.\d{1,3})\s*? [\s\S]*?\s*?(\d+)\s*? ',
r.text)
for proxy in proxies:
yield \":\".join(proxy)
以上是两个网站代理池的解析。感兴趣的可以试试看,大佬直接用正则匹配出来了。
可以肯定免费的代理IP大部分都是不能用的,不然别人为什么还提供付费的(不过事实是很多代理商的付费IP也不稳定,也有很多是不能用)。所以采集回来的代理IP不能直接使用,可以写检测程序不断的去用这些代理访问一个稳定的网站,看是否可以正常使用。这个过程可以使用多线程或异步的方式,因为检测代理是个很慢的过程。
项目提供了SSDB,和Redis来做校验IP队列,和可用IP队列,并用flask把代理做成服务。这样我们可以通过API来获取,更新,删除IP,甚至在实现个人的定制化时更加灵活。下面贴一部分flask的内容:
flask的一些接口信息
通过这个文档我们可以看出作者提供了4个API,分别为:
基本可以覆盖大部分的使用情况。
根据项目分包,可以看出代理池由四部分组成:
大佬个人博客抄来的架构图
我直接把项目拉下来,根据readme设置了配置,直接把我MAC本机的redis做了DB,就可以跑起来了。看项目windows更推荐用Docker拉镜像跑,我这里都不多说了。
由于整个项目的校验机制延时比较长,代码如下:
def run():
scheduler = BackgroundScheduler()
# 不用太快, 网站更新速度比较慢, 太快会加大验证压力, 导致raw_proxy积压
scheduler.add_job(fetchAll, 'interval', minutes=10, id=\"fetch_proxy\")
scheduler.add_job(batchRefresh, \"interval\", minutes=1) # 每分钟检查一次
scheduler.start()
fetchAll()
while True:
time.sleep(3)
每分钟校验一次可用代理,10分钟爬一次免费网站的代理。我个人感觉校验代理的世界太长了,可以看看我的测试。
跑了一天,代理池记录的代理如图
一天内的可用代理
我特别写的校验机制,循环20次校验拿到的代理可用数,如图:
校验结果
第一次校验通过24个代理可用,第二次只有18,中间耗时4s
校验20次的结果
20次校验后,得到的可用代理只有13个
redis存储的代理
由于项目校验可用代理延时为1分钟,最初可用代理76个。当我使用脚本校验20次后,可用的只有13个。意味着在这段时间内,可用的稳定的代理只有13/76,不到20%的稳定率。
在实际使用中,不管使用何种代理,校验都是必不可少的,但是不到20%的代理可用,这会对爬虫造成巨大的干扰,至少在我看来,在这种机制下,校验的IP还具有很大的提升空间。
由于是爬取其他网站的活动代理,我们并不在乎我们单位时间的请求数,只需要在当下的代理可用即可。解决核心:76个IP其实还不如5个较为稳定的IP,我们如何让这76个IP变成5个可用的稳定的IP成为这个项目可以应用在实际工程中的核心。
我后面会单独依托这个项目,加入一个新的校验队列的机制,并通过新的API获得它,以在实际的项目中,获得更好的体验。
欢迎关注我的头条,以获得最新的近况。
通过代理绕过很多网站的确是很好的办法,但是高端的反爬虫越来越依托于秘钥校验等等,硬实力越来越重要。代理永远都只是一个工具,爬虫工程师的核心永远都是自己的对抗能力。
推荐阅读
热门文章
因为专业! 所以简单! 产品至上,价格实惠 是我们服务追求的宗旨
免费试用