各大免费IP的网站的反爬手段往往是封掉在一定时间内访问过于频繁的IP,因此在爬取的时候需要设定一定的时间间隔,不过说实话,免费代理很多时候基本都不能用,可能一千个下来只有十几个可以用,而且几分钟之后估计也扑街了。虽然有那种付费的大量代理IP,但是也不见得好,测试过,里面优质的也很少。目前体验比较好的还是私密代理,当然还有其他。贵有贵的道理。

import requests
import time
import random
from fake_useragent import UserAgentfrom requests.exceptions import RequestException
from lxml import etree
import csv class IPSpider(object):
def __init__(self):
self.url = 'https://www.kuaidaili.com/free/inha/'
self.url_test = 'http://www.baidu.com/' # 直接拿百度来测试IP能不能用 def get_headers(self):
"""
随机产生请求头
:return:
"""
ua = UserAgent()
headers = {
'User-Agent': ua.random
}
return headers def get_page(self, url):
"""
获取网页源代码
:param url:
:return:
"""
while True:
try:
headers = self.get_headers()
response = requests.get(url, headers=headers, verify=False)
if response.status_code == 200:
return response.text
print(response.status_code)
raise ValueError("打开网页错误")
except RequestException as err:
print(err) def parse_ip(self, text):
"""
提取页面的IP和端口号
:param text:
:return:
"""
html = etree.HTML(text)
ip = html.xpath("//tr/td[1]/text()")
print(ip)
port = html.xpath("//tr/td[2]/text()")
print(port)
return zip(ip, port) def test_ip(self, ip, port):
"""
测试IP是否可用
:param ip:
:param port:
:return:
"""
try:
# url_ip = 'http://' + ip + ':' + port
# proxies = {
# 'http': url_ip,
# 'https': url_ip
# }
proxies = {
'http': 'http://{}:{}'.format(ip, port),
'https': 'https://{}:{}'.format(ip, port),
}
headers = self.get_headers()
response = requests.get(url=self.url_test, headers=headers, proxies=proxies, timeout=8)
if response.status_code == 200:
print("%s可用" % ip)
return ip, port
return None
except RequestException:
print('%s失效' % ip) def save_ip(self, result):
"""
可用的IP保存
:param result:
:return:
"""
with open("kuaidailiip.csv", "a")as f:
writer = csv.writer(f)
writer.writerows(result) def run(self):
"""
主函数
:return:
"""
for i in range(1, 1001):
url = self.url + str(i) + '/'
text = self.get_page(url)
ip = self.parse_ip(text)
result = []
for j in ip:
ok_ip = self.test_ip(j[0], j[1])
if ok_ip == None:
continue
else:
result.append(ok_ip)
self.save_ip(result)
time.sleep(random.randint(5, 7))
if __name__ == '__main__':
  spider = IPSpider()
  spider.run()

最新文章

  1. MVC发布问题(一直显示目录浏览)
  2. DFS & BFS
  3. GDAL读取tiff文件/C++源码
  4. C语言计算程序运行时间
  5. xmanager远程登录
  6. git版本控制(一)
  7. SpringMVC---CookieValue
  8. 带你深入理解STL之Stack和Queue
  9. Smarty学习笔记(一)
  10. Ajax的初级使用
  11. 深入理解Java虚拟机03--垃圾收集器与内存分配策略
  12. [OpenCV-Python] OpenCV 中的 Gui特性 部分 II
  13. webservice 配置
  14. Codeforces Round #523 (Div. 2) E. Politics(最小费+思维建图)
  15. Hello 2018 A,B,C,D
  16. 低版本系统兼容的ActionBar(六)用Fragment+ViewPager+Tab实现快速导航
  17. skopt学习之路1-函数介绍:dummy_minimize
  18. mysql,存储引擎,事务,锁,慢查询,执行计划分析,sql优化
  19. ddt 接口框架数据处理调用excel 处理
  20. PHP------数组和对象相互转化,stdClass Object转array

热门文章

  1. CentOS7中使用GitBlit搭建自己的Git服务器
  2. oracle中监听程序当前无法识别连接描述符中请求服务 的解决方法
  3. android canvas drawtext 字高
  4. ccf 201612-4 压缩编码(DP)(100)
  5. linux中的i2c控制器驱动应该做些什么?
  6. LC 861. Score After Flipping Matrix
  7. CSS中 Padding和Margin两个属性的详细介绍和举例说明
  8. 【React自制全家桶】三、React使用ref操作DOM与setState遇到的问题
  9. 机器学习之SVM算法
  10. NGUI中UILabel使用url标签的一个bug