Python爬取表格的步骤-成都创新互联网站建设

关于创新互联

多方位宣传企业产品与服务 突出企业形象

公司简介 公司的服务 荣誉资质 新闻动态 联系我们

Python爬取表格的步骤

小编给大家分享一下Python爬取表格的步骤,希望大家阅读完这篇文章后大所收获,下面让我们一起去探讨方法吧!

网站的建设成都创新互联公司专注网站定制,经验丰富,不做模板,主营网站定制开发.小程序定制开发,H5页面制作!给你焕然一新的设计体验!已为成都高空作业车租赁等企业提供专业服务。

Python爬取表格的步骤:

1、检查url地址,用raise_for_status()检查url地址;

2、爬取资源,用BeautifulSoup()爬取数据,并且用find_all('tr')抓取其中的表格;

3、保存资源,用write()将表格保存到指定目录。

from bs4 import BeautifulSoup 
import requests 
import csv 
import bs4 
#检查url地址 
def check_link(url): 
 try: 
  r = requests.get(url) 
  r.raise_for_status() 
  r.encoding = r.apparent_encoding 
  return r.text 
 except: 
  print('无法链接服务器!!!') 
#爬取资源 
def get_contents(ulist,rurl): 
 soup = BeautifulSoup(rurl,'lxml') 
 trs = soup.find_all('tr') 
 for tr in trs: 
  ui = [] 
  for td in tr: 
   ui.append(td.string) 
  ulist.append(ui) 
#保存资源 
def save_contents(urlist): 
 with open("D:/2016年中国企业500强排行榜.csv",'w') as f: 
  writer = csv.writer(f) 
  writer.writerow(['2016年中国企业500强排行榜']) 
  for i in range(len(urlist)): 
   writer.writerow([urlist[i][1],urlist[i][3],urlist[i][5]]) 
def main(): 
 urli = [] 
 url = "http://www.maigoo.com/news/463071.html"
 rs = check_link(url) 
 get_contents(urli,rs) 
 save_contents(urli) 
main()

运行结果:

Python爬取表格的步骤

看完了这篇文章,相信你对Python爬取表格的步骤有了一定的了解,想了解更多相关知识,欢迎关注创新互联行业资讯频道,感谢各位的阅读!


当前标题:Python爬取表格的步骤
标题路径:http://kswsj.cn/article/jospdp.html

其他资讯