您的位置: 首页 > 新闻资讯 > 常见问题 > 正文

万变爬虫代理ip池(适合初学者ip代理python )

发布时间:2019年11月22日 来源:

ip代理

初次学习python爬虫的朋友在频繁访问被爬取页面网站时都会被拦截,也就是限制ip。这里教教大家建立代理ip池。

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import requests,threading,datetime
from bs4 import BeautifulSoup
import random
 
\"\"\"
1、抓取西刺代理网站的代理ip
2、并根据指定的目标url,对抓取到ip的有效性进行验证
3、最后存到指定的path
\"\"\"
 
# ------------------------------------------------------文档处理--------------------------
# 写入文档
def write(path,text):
 with open(path,'a', encoding='utf-8') as f:
 f.writelines(text)
 f.write('
')
# 清空文档
def truncatefile(path):
 with open(path, 'w', encoding='utf-8') as f:
 f.truncate()
# 读取文档
def read(path):
 with open(path, 'r', encoding='utf-8') as f:
 txt = []
 for s in f.readlines():
 txt.append(s.strip())
 return txt
# ---------------------------------------------------------------------------------------
# 计算时间差,格式: 时分秒
def gettimediff(start,end):
 seconds = (end - start).seconds
 m, s = divmod(seconds, 60)
 h, m = divmod(m, 60)
 diff = (\"%02d:%02d:%02d\" % (h, m, s))
 return diff
# ----------------------------------------------------------------------------------------------------------------------
# 返回一个随机的请求头 headers
def getheaders():
 user_agent_list = [ \
 \"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1\" \
 \"Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 (KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11\", \
 \"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6\", \
 \"Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 (KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6\", \
 \"Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1\", \
 \"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5\", \
 \"Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 (KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5\", \
 \"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3\", \
 \"Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3\", \
 \"Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3\", \
 \"Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3\", \
 \"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3\", \
 \"Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3\", \
 \"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3\", \
 \"Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3\", \
 \"Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 (KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3\", \
 \"Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24\", \
 \"Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 (KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24\"
 ]
 UserAgent=random.choice(user_agent_list)
 headers = {'User-Agent': UserAgent}
 return headers
# -----------------------------------------------------检查ip是否可用---------------------
def checkip(targeturl,ip):
 headers =getheaders() # 定制请求头
 proxies = {ip.split(':')[0]: ip} # 代理ip
 try:
 response=requests.get(url=targeturl,proxies=proxies,headers=headers,timeout=5).status_code
 if response == 200 :
 return True
 else:
 return False
 except:
 return False
 
#-------------------------------------------------------获取代理方法----------------------
# 免费代理 XiciDaili
def findip(type,pagenum,targeturl,path): # ip类型,页码,目标url,存放ip的路径
 list={'1': 'http://www.xicidaili.com/nt/', # xicidaili国内普通代理
 '2': 'http://www.xicidaili.com/nn/', # xicidaili国内高匿代理
 '3': 'http://www.xicidaili.com/wn/', # xicidaili国内https代理
 '4': 'http://www.xicidaili.com/wt/'} # xicidaili国外http代理
 url=list[str(type)]+str(pagenum) # 配置url
 headers = getheaders() # 定制请求头
 html=requests.get(url=url,headers=headers,timeout = 5).text
 soup=BeautifulSoup(html,'lxml')
 all=soup.find_all('tr',class_='odd')
 for i in all:
 t=i.find_all('td')
 ip=t[5].text+'://'+t[1].text+':'+t[2].text
 ip=ip.lower()
 is_avail = checkip(targeturl,ip)
 if is_avail == True:
 write(path=path,text=ip)
 # print(ip)
 
#-----------------------------------------------------多线程抓取ip入口--------------------
def getip(targeturl,path):
 truncatefile(path) # 爬取前清空文档
 start = datetime.datetime.now() # 开始时间
 threads=[]
 for type in range(4): # 四种类型ip,每种类型取前三页,共12条线程
 for pagenum in range(3):
 t=threading.Thread(target=findip,args=(type+1,pagenum+1,targeturl,path))
 threads.append(t)
 print('开始爬取代理ip')
 for s in threads: # 开启多线程爬取
 s.start()
 for e in threads: # 等待所有线程结束
 e.join()
 print('爬取完成')
 end = datetime.datetime.now() # 结束时间
 diff = gettimediff(start, end) # 计算耗时
 ips = read(path) # 读取爬到的ip数量
 print('一共爬取代理ip: %s 个,共耗时: %s 
' % (len(ips), diff))
 
#-------------------------------------------------------启动-----------------------------
# if __name__ == '__main__':
def get_ip():
 path = 'ip.txt' # 存放爬取ip的文档path
 targeturl = 'http://www.cnblogs.com/TurboWay/' # 验证ip有效性的指定url
 getip(targeturl,path)

\"python


以上就是我借鉴别人代码而修改成的自己的代理ip池,你可以直接调用get_ip()函数,也可以使用if __name__='__main__':跑这段代码。 if __name__='__main__':相当于Main()方法,也就是程序的入口。

好了,代码就分享到这里。估计没有不懂的,因为已经很详细了。

最后多说一句,小编是一名python开发工程师,这里有我自己整理了一套最新的python系统学习教程,包括从基础的python脚本到web开发、爬虫、数据分析、数据可视化、机器学习等。想要这些资料的可以关注小编,并在后台私信小编:“01”即可领取。

相关文章内容简介

1 普通,高级,超级,至尊专区介绍

专区介绍:1.普通专区(普通会员使用,可用静态2000线路)静态线路是指IP固定的线路,每条线路固定一个IP。2.高级专区(高级会员使用,可用静态,动态时效线路)动态时效线路是指线路IP会在1到20分钟内自动切换3.超级专区(超级会员使用,可用静态,动态时效,动态,混拨)混拨线路是指随机选择线路进行连接4.至尊专区(至尊会员使用,可用独享高速在内所有,网速更优) 独享线路为单人连接使用的线路,高速线路是电脑端的网速最快的线路... [阅读全文]

2 万变IP功能简介

地区覆盖全国258个城市,8000万条IP地址库 多平台支持,支持电脑windows、苹果iOS、安卓Android 支持多种IP混拨模式,全国混拨+单地区混拨+指定地区混拨 支持静态固定线路,动态高网速线路 高匿名ip,保护隐私,防追踪 多协议支持,支持L2TP/SE驱动/open协议 极速的切换体验,更换速度低于100ms 网速保证您的工作效率,自建服务器网速更快 自动切换IP,支持任意时长定时自动切换 自动清理:清理缓存cookie,提升运行速度... [阅读全文]

因为专业! 所以简单! 产品至上,价格实惠 是我们服务追求的宗旨

免费试用