大佬教程收集整理的这篇文章主要介绍了Python采集ip代理,并检测是否可用(仅用于学习交流),大佬教程大佬觉得挺不错的,现在分享给大家,也给大家做个参考。
我们写爬虫程序,爬多了或者请求爬取数据快了,服务器就会拒绝访问,同时一个IP多次快速请求,网站会把你IP封掉,这时候 要么等一段时间,要么换IP。
1.数据来源分析
找我们想要数据内容, 从哪里来的
2.发送请求
对于目标网址发送请求 https://www.kuaidaili.com/free/
3.获取数据
获取服务器返回响应数据(网页源代码)
4.解析数据
提取我们想要的数据内容
5.保存数据
爬音乐 视频 本地csv 数据库… IP检测, 检测IP代理是否可用 可用用IP代理 保存
#兄弟们学习python,有时候不知道怎么学,从哪里开始学。掌握了基本的一些语法或者做了两个案例后,不知道下一步怎么走,不知道如何去学习更加高深的知识。 #那么对于这些大兄弟们,我准备了大量的免费视频教程,PDF电子书籍,以及视频源的源代码! #还会有大佬解答! #都在这个群里了 924040232 #欢迎加入,一起讨论 一起学习!
模块拓展
re 是正则表达式模块,属于内置模块,不需要安装;
parsel 是数据解析模块,属于第三方模块,这个是scrapy框架核心组件,安装方法 pip install parsel
from 从
import 导入
从 什么模块里面 导入 什么方法
from xxx import * 导入所有方法
全部代码
import requests import re import parsel flis = [] lis_1 = [] for page in range(11, 21): url = f'https://www.kuaidaili.com/free/inha/{pagE}/' # 确定请求url地址 # 用requests模块里面get 方法 对于url地址发送请求, 最后用response变量接收返回数据 response = requests.get(url) # xpath 提取数据 SELEctor = parsel.SELEctor(response.text) # 把html 字符串数据转成 SELEctor 对象 ip_list = SELEctor.xpath('//*[@id="list"]/table/tbody/tr/td[1]/text()').getall() port_list = SELEctor.xpath('//*[@id="list"]/table/tbody/tr/td[2]/text()').getall() for ip, port in zip(ip_list, port_list): proxy = ip + ':' + port proxies_Dict = { "http": "http://" + proxy, "https": "http://" + proxy, } lis.append(proxies_Dict) try: response = requests.get(url=url, proxies=proxies_Dict, timeout=1) if response.status_code == 200: print('当前代理IP: ', proxies_Dict, '可以使用') lis_1.append(proxies_Dict) except: print('当前代理IP: ', proxies_Dict, '请求超时, 检测不合格') print('获取的代理IP数量: ', len(lis)) print('获取可用的IP代理数量: ', len(lis_1)) print('获取可用的IP代理: ', lis_1) dit = { 'http': 'http://110.189.152.86:40698', 'https': 'http://110.189.152.86:40698' }
以上是大佬教程为你收集整理的Python采集ip代理,并检测是否可用(仅用于学习交流)全部内容,希望文章能够帮你解决Python采集ip代理,并检测是否可用(仅用于学习交流)所遇到的程序开发问题。
如果觉得大佬教程网站内容还不错,欢迎将大佬教程推荐给程序员好友。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。