爬虫中的Proxy-Tunnel是如何自主切换IP的-成都创新互联网站建设

关于创新互联

多方位宣传企业产品与服务 突出企业形象

公司简介 公司的服务 荣誉资质 新闻动态 联系我们

爬虫中的Proxy-Tunnel是如何自主切换IP的

这篇文章主要讲解了“爬虫中的Proxy-Tunnel是如何自主切换IP的”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“爬虫中的Proxy-Tunnel是如何自主切换IP的”吧!

成都创新互联公司服务项目包括昭苏网站建设、昭苏网站制作、昭苏网页制作以及昭苏网络营销策划等。多年来,我们专注于互联网行业,利用自身积累的技术优势、行业经验、深度合作伙伴关系等,向广大中小型企业、政府机构等提供互联网行业的解决方案,昭苏网站推广取得了明显的社会效益与经济效益。目前,我们服务的客户以成都为中心已经辐射到昭苏省份的部分城市,未来相信会继续扩大服务区域并继续获得客户的支持与信任!

在采集数据的过程这欧中我们经常会遇到这样的问题,目标网站需要登录,获取数据的两个请求在一个IP下完成,这时我们就只需对这组请求设置相同Proxy-Tunnel。例如:Proxy-Tunnel: 12345, 该组请求在代理有效期内使用相同的代理IP。这就是亿牛云的Proxy-Tunnel自主切换IP,该模式适合一些需要登陆、Cookie缓存处理等爬虫需要精确控制IP切换时机的业务。 爬虫程序可以通过设置HTTP头Proxy-Tunnel: 随机数, 当随机数相同时,访问目标网站的代理IP相同。

#! -*- encoding:utf-8 -*-    import urllib2    import random    import httplib    class HTTPSConnection(httplib.HTTPSConnection):        def set_tunnel(self, host, port=None, headers=None):            httplib.HTTPSConnection.set_tunnel(self, host, port, headers)            if hasattr(self, 'proxy_tunnel'):                self._tunnel_headers['Proxy-Tunnel'] = self.proxy_tunnel    class HTTPSHandler(urllib2.HTTPSHandler):        def https_open(self, req):            return urllib2.HTTPSHandler.do_open(self, HTTPSConnection, req, context=self._context)    # 要访问的目标页面    targetUrlList = [        "https://httpbin.org/ip",        "https://httpbin.org/headers",        "https://httpbin.org/user-agent",    ]    # 代理服务器(产品官网 www.16yun.cn)    proxyHost = "t.16yun.cn"    proxyPort = "31111"    # 代理验证信息    proxyUser = "username"    proxyPass = "password"    proxyMeta = "http://%(user)s:%(pass)s@%(host)s:%(port)s" % {        "host": proxyHost,        "port": proxyPort,        "user": proxyUser,        "pass": proxyPass,    }    # 设置 http和https访问都是用HTTP代理    proxies = {        "http": proxyMeta,        "https": proxyMeta,    }    #  设置IP切换头    tunnel = random.randint(1, 10000)    headers = {"Proxy-Tunnel": str(tunnel)}    HTTPSConnection.proxy_tunnel = tunnel    proxy = urllib2.ProxyHandler(proxies)    opener = urllib2.build_opener(proxy, HTTPSHandler)    urllib2.install_opener(opener)    # 访问三次网站,使用相同的tunnel标志,均能够保持相同的外网IP    for i in range(3):        for url in targetUrlList:            r = urllib2.Request(url)            print(urllib2.urlopen(r).read())

感谢各位的阅读,以上就是“爬虫中的Proxy-Tunnel是如何自主切换IP的”的内容了,经过本文的学习后,相信大家对爬虫中的Proxy-Tunnel是如何自主切换IP的这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是创新互联,小编将为大家推送更多相关知识点的文章,欢迎关注!


文章题目:爬虫中的Proxy-Tunnel是如何自主切换IP的
网页网址:http://kswsj.cn/article/gsegcs.html

其他资讯