怎么用python爬虫豆瓣电影数据-成都创新互联网站建设

关于创新互联

多方位宣传企业产品与服务 突出企业形象

公司简介 公司的服务 荣誉资质 新闻动态 联系我们

怎么用python爬虫豆瓣电影数据

这篇文章主要介绍“怎么用python爬虫豆瓣电影数据”,在日常操作中,相信很多人在怎么用python爬虫豆瓣电影数据问题上存在疑惑,小编查阅了各式资料,整理出简单好用的操作方法,希望对大家解答”怎么用python爬虫豆瓣电影数据”的疑惑有所帮助!接下来,请跟着小编一起来学习吧!

目前创新互联已为近千家的企业提供了网站建设、域名、网页空间、网站托管运营、企业网站设计、浑南网站维护等服务,公司将坚持客户导向、应用为本的策略,正道将秉承"和谐、参与、激情"的文化,与客户和合作伙伴齐心协力一起成长,共同发展。

下面我们从 国内高匿代理IP 获得代理IP数据。
import os
import time
import requests
from bs4 import BeautifulSoup
#num获取num页 国内高匿ip的网页中代理数据def
fetch_proxy(num):    #修改当前工作文件夹    os.chdir(r'/Users/apple888/PycharmProjects/proxy IP')    api = 'http://www.xicidaili.com/nn/{}'    header = {'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS
                            X 10_12_3) AppleWebKit/537.36 (KHTML,
                     like Gecko) Chrome/56.0.2924.87 Safari/537.36'}    fp = open('host.txt', 'a+', encoding=('utf-8'))    
   for i in range(num+1):        api = api.format(1)        respones = requests.get(url=api, headers=header)        soup = BeautifulSoup(respones.text, 'lxml')        container = soup.find_all(name='tr',attrs={'class':'odd'})        
       for tag in container:            
           try:                con_soup = BeautifulSoup(str(tag),'lxml')                td_list = con_soup.find_all('td')                ip = str(td_list[1])[4:-5]                port = str(td_list[2])[4:-5]                IPport = ip + '\t' + port + '\n'                fp.write(IPport)            
           except Exception as e:                print('No IP!')        time.sleep(1)    fp.close()

我们准备抓 国内高匿代理IP网 的十个页面的代理

怎么用python爬虫豆瓣电影数据

但是有代理IP还不行,因为我们不知道这代理能不能用,是否有效。

下面我们用百度网进行检验(大公司不怕咱们短时间内高频率访问),上代码:
import os
import time
import requests
from bs4 import BeautifulSoup
def test_proxy():    N = 1    os.chdir(r'/Users/apple888/PycharmProjects/proxy IP')    url = 'https://www.baidu.com'    fp = open('host.txt', 'r')    ips = fp.readlines()    proxys = list()    
   for p in ips:        ip = p.strip('\n').split('\t')        proxy = 'http:\\' + ip[0] + ':' + ip[1]        proxies = {'proxy': proxy}        proxys.append(proxies)    
      for pro in proxys:        
           try:            s = requests.get(url, proxies=pro)            print('第{}个ip:{} 状态{}'.format(N,pro,s.status_code))        except Exception as e:            print(e)        N+=1


到此,关于“怎么用python爬虫豆瓣电影数据”的学习就结束了,希望能够解决大家的疑惑。理论与实践的搭配能更好的帮助大家学习,快去试试吧!若想继续学习更多相关知识,请继续关注创新互联网站,小编会继续努力为大家带来更多实用的文章!


当前名称:怎么用python爬虫豆瓣电影数据
网站URL:http://kswsj.cn/article/jicipc.html

其他资讯