为了账号安全,请及时绑定邮箱和手机立即绑定

python网络爬虫之Scrapy

标签:
Python

本文分享的大体框架包含以下三部分

(1)首先介绍html网页,用来解析html网页的工具xpath
(2)介绍python中能够进行网络爬虫的库(requests,lxml,scrapy等)
(3)从四个案例出发有易到难依次介绍scrapy集成爬虫框架

下面开始对三部分内容逐一开始介绍。

一、html和xpath说明

1. html

超文本标记语言,是用来描述网页的一种语言。主要用于控制数据的显示和外观。HTML文档一定意义上可以被称为网页。但反过来说网页不仅仅是HTML,网页本质有三部分构成:负责内容结构的HTML,负责表现的CSS,以及负责行为的javascript。本文主要分享的是最核心的内容结构部分。

(1)html结构

完整的HTML文件至少包括<HTML>标签、<HEAD>标签、<TITLE>标签和<BODY>标签,并且这些标签都是成对出现的,开头标签为<>,结束标签为</>,在这两个标签之间添加内容。通过这些标签中的相关属性可以设置页面的背景色、背景图像等。
例如,我们打开豆瓣首页,摁下键盘上的F12键,打开浏览器自带“开发者工具”,可以看到一个完整的html文档结构,如下图

https://img1.sycdn.imooc.com//5d31b48800014ef107300267.jpg  HTML文档结构.jpg

从上图可以看出,一个完整的html文档主要包含三部分:DTD文档头,head头部信息和body正文信息。其中DTD文档头用来告诉浏览器执行标准是什么(比如html4或是html5),head头部信息用来说明浏览器的编码方式和文档头名称,body顾名思义就是浏览器的正文部分。

(2)html标签

作为开始和结束的标记,由尖括号包围的关键词,比如 <html>,标签对中的第一个标签是开始标签,第二个标签是结束标签。html中常见标签如下:

https://img1.sycdn.imooc.com//5d31b48c0001de3207220345.jpg  html常用标签.png     https://img1.sycdn.imooc.com//5d52c8920001905008960403.jpg 

其中, “< ul >< li ></li ></ul >”是一种嵌套顺序,无序列表,成对出现;li的父元素必须是ul或者ol,不同之处在于ol是一种有序列列表,而ul是无序列表;

(3)html属性

属性是用来修饰标签的,放在开始标签里里面,html中常见四大属性:

属性说明
class规定元素的类名,大多数时候用于指定样式表中的类
id唯一标识一个元素的属性,在html里面必须是唯一的
href指定超链接目标的url
src指定图像的url

2. xpath

(1)xpath定义

是一种路径查询语言,简单的说就是利用一个路径表达式从html文档中找到我们需要的数据位置,进而将其写入到本地或者数据库中。(可以将xpath类比为sql结构化查询语言)

(2)xpath常见使用方法

符号功能
//表示在整个文本中查找,是一种相对路径
/表示则表示从根节点开始查找,是一种绝对路径
text()找出文本值
@找出标签对应的属性值,比如@href就是找出对应的href链接
.表示当前节点
..表示当前节点的父节点

当然xpath除了上述常见用法外,还存两种比较特殊的用法:以相同的字符开头;标签套标签。

用法1:以相同的字符开头:starts-with(@属性部分,属性字符相同部分

用法2:标签套标签:string(.)

#以相同的字符开头 #比如我们想同时提取到下列html中三条文本内容的话,就需要使用starts-with方法 html1 = """ <!DOCTYPE html> <html>  <head lang='en'>     <meta charest='utf-8'>     <title></title>  </head>  <body>     <div id="test-1">需要的内容1</div>     <div id="test-2">需要的内容2</div>     <div id="testfault">需要的内容3</div>  </body> </html> #爬取代码 from lxml import etree selector = etree.HTML(html1) content  = selector.xpath('//div[starts-with(@id,"test")]/text()') for each in content:     print each


还有一种是标签套标签形式,参考如下例子

html2 = """ <!DOCTYPE html> <html>  <head lang='en'>     <meta charest='utf-8'>     <title></title>  </head>  <body>     <div id="test3">     我左青龙,         <span id='tiger'>             右白虎             <ul>上朱雀,                 <li>下玄武,</li>             </ul>         </span>         龙头在胸口     </div>  </body> </html> """ #如果我们想爬取的内容是html文档中的所有文本的话,需要使用string方法进行提取 selector2 = etree.HTML(html2) content2  = selector2.xpath('//div[@id="test3"]')[0] #列表,只有一个元素 info = content2.xpath('string(.)') content3 = info.replace('\n','').replace(' ','') print content3


(3)xpath的谓语结构

该小节参考资料:阮一峰的网络日志

所谓"谓语条件",就是对路径表达式的附加条件。所有的条件,都写在方括号"[]"中,表示对节点进行进一步的筛选。例如:

<?xml version="1.0" encoding="ISO-8859-1"?> <bookstore>   <book>     <title lang="eng">Harry Potter</title>     <price>29.99</price>   </book>   <book>     <title lang="eng">Learning XML</title>     <price>39.95</price>   </book> </bookstore>


下面从几个简单的例子让大家体会一下

  • /bookstore/book[1] :表示选择bookstore的第一个book子元素。

  • /bookstore/book[last()] :表示选择bookstore的最后一个book子元素。

  • /bookstore/book[last()-1] :表示选择bookstore的倒数第二个book子元素。

  • /bookstore/book[position()<3] :表示选择bookstore的前两个book子元素。

  • //title[@lang] :表示选择所有具有lang属性的title节点。

  • //title[@lang='eng'] :表示选择所有lang属性的值等于"eng"的title节点。

二、python中能够进行网络爬虫的库

1. 安装方式

python中安装包或者模块的方式一般有以下两种:

(1)pip install xxx(xxx表示模块名字)

pip install lxml/numpy/pandas/scrapy/requests

(2)进入到python库网站下载所需模块,然后使用pip install xxx.whl安装即可

pip install lxml‑3.7.3‑cp27‑cp27m‑win_amd64.whl

2. requests

import requests #我的简书主页 r = requests.get('http://www.jianshu.com/u/95f3a80fac3e') # r本身是一个reponse对象,需要通过content来返回其内容 print r.content #其实上面通过content之后得到就是一个完整的html文档,之后可以直接使用lxml等工具直接对其进行解析,下一小节会讲到lxml print r.status_code print r.encoding #html的编码方式,一般是UTF-8 print r.cookies


3. lxml

lxml中集成了刚才讲述的xpath这种路径查询语言;例如我们首先创建一个html文档如下

html= """ <!DOCTYPE html> <html>  <head lang='en'>     <meta charest='utf-8'>     <title></title>  </head>  <body>     <div id="test-1">需要的内容1</div>     <div id="test-2">需要的内容2</div>     <div id="testfault">需要的内容3</div>  </body> </html> """


然后使用lxml对我们想要的内容进行爬取

from lxml import etree selector = etree.HTML(html) content = selector.xptah('path') #此处的path指的就是需要爬虫的文件路径 for item in content:     print item


前面讲到的requests通常也是配合lxml使用,首先使用requests获取到网页内容,即html文档,然后使用lxml中的xpath爬取我们所需要的内容。例子如下:

#爬取豆瓣电影top250,并将电影名称和评分打印出来 import requests from lxml import etree s = requests.Session() #开启一个requests会话 for id in range(0, 251, 25):     url = 'https://movie.douban.com/top250/?start-' + str(id)     r = s.get(url) #返回是一个reponse对象     r.encoding = 'utf-8'     root = etree.HTML(r.content)     items = root.xpath('//ol/li/div[@class="item"]')     # print(len(items))     for item in items:         title = item.xpath('./div[@class="info"]//a/span[@class="title"]/text()')         name = title[0].encode('gb2312', 'ignore').decode('gb2312')         # rank = item.xpath('./div[@class="pic"]/em/text()')[0]         rating = item.xpath('.//div[@class="bd"]//span[@class="rating_num"]/text()')[0]         print(name, rating)


4. 大杀器scrapy

scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架。 可以应用在包括数据挖掘,信息处理或存储历史数据等一系列的程序中。我们需要知道的是,scrapy是一种集成框架,类似于request和xpath这些方法在scrapy都有集成。

(1)scrapy安装

安装scrapy前,需要先安装lxml模块,然后按照之前说的方法进行安装就可以(我的电脑安装的是anaconda集成环境)

(2)scrapy的结构

https://img1.sycdn.imooc.com//5d31b49e00013b8b07120497.jpg  Paste_Image.png

其中,不同模块负责不同的任务分工。首先Scheduler发出请求(Requests),Downloader负责从互联网上下载内容,将下载好的内容(Responses)交给Spiders进行解析,解析完成后将内容Item返回,当然其中可能会涉及到对于解析后数据的进一步处理,这个任务是在Pipeline中完成的。

(3)scrapy通常有两种使用方式:

  • 直接在python脚本里定义一个爬取数据的类(参见爬虫案例1,2,3)

  • 创建完整的scrapy项目(参见爬虫案例4);创建命令为
    scrapy startproject xxx

创建完scrapy项目后,会在对应的文件下生成如下结构:

https://img1.sycdn.imooc.com//5d31b4a400012b0c03660355.jpg  YLA943`5WMORH9SNVD~D}EA.png

其中,
spiders文件夹下面是真正爬虫的代码;
items之前提到过,是定义需要爬取的内容;
pipelines是对爬取到的数据进行的进一步处理;
settings中主要是一些环境变量和配置。
另外,scrapy有提供两个xpath选择器,HtmlXPathSelector和XmlXPathSelector,一个用于html,一个用于xml,xpath选择器有三个方法:

  • select(xpath): 返回一个相对于当前选中节点的选择器列表(一个xpath可能选到多个节点)

  • extract(): 返回选择器(列表)对应的节点的字符串(列表,类型就是python中的list)
    -_ re(regex)_: 返回正则表达式匹配的字符串(分组匹配)列表

需要注意的是,如果爬取的页面相对简单,爬取内容较少,且不用对爬取到的数据做过多的后期处理,使用第一种,反之,使用第二种,当然建立完整的scrapy项目肯定可以处理简单任务。

三、爬虫案例

1. 想要爬取得内容都在同一页面

本实例中,我们通过scrapy爬取七月在线课程信息。

#scrapy runspider spider.py –o xxx.json(运行时可以在命令窗口进行) import scrapy  class JulyeduSpider(scrapy.Spider):     name = "julyedu"     start_urls = ['https://www.julyedu.com/category/index'] #开始爬取网址,是一个list列表     # 定义解析页面函数     def parse(self, response):         for julyedu_class in response.xpath('//div[@class="course_info_box"]'):             print julyedu_class.xpath('a/h4/text()').extract_first()             print julyedu_class.xpath('a/p[@class="course-info-tip"][1]/text()').extract_first()             print julyedu_class.xpath('a/p[@class="course-info-tip"][2]/text()').extract_first()             print response.urljoin(julyedu_class.xpath('a/img[1]/@src').extract_first())             print "\n"             # 返回函数值             yield {                 'title':julyedu_class.xpath('a/h4/text()').extract_first(),                 'desc': julyedu_class.xpath('a/p[@class="course-info-tip"][1]/text()').extract_first(),                 'time': julyedu_class.xpath('a/p[@class="course-info-tip"][2]/text()').extract_first(),                 'img_url': response.urljoin(julyedu_class.xpath('a/img[1]/@src').extract_first())             }


2. 想要爬去的内容在多页,不同页之间可以进行人为拼接构成(例如博客园

本实例中,我们利用scrapy爬取博客园中的信息,爬取内容包括每条博文的标题、链接、作者、评论等信息

class CnBlogSpider(scrapy.Spider):     name = "cnblogs"     allowed_domains = ["cnblogs.com"]     start_urls = [ 'http://www.cnblogs.com/pick/#p%s' % p for p in xrange(1, 11)        ]     #定义解析函数     def parse(self, response):         for article in response.xpath('//div[@class="post_item"]'):             print article.xpath('div[@class="post_item_body"]/h3/a/text()').extract_first().strip()             print response.urljoin(article.xpath('div[@class="post_item_body"]/h3/a/@href').extract_first()).strip()             print article.xpath('div[@class="post_item_body"]/p/text()').extract_first().strip()             print article.xpath('div[@class="post_item_body"]/div[@class="post_item_foot"]/a/text()').extract_first().strip()             print response.urljoin(article.xpath('div[@class="post_item_body"]/div/a/@href').extract_first()).strip()             print article.xpath('div[@class="post_item_body"]/div[@class="post_item_foot"]/span[@class="article_comment"]/a/text()').extract_first().strip()             print article.xpath('div[@class="post_item_body"]/div[@class="post_item_foot"]/span[@class="article_view"]/a/text()').extract_first().strip()             print ""             yield {                 'title': article.xpath('div[@class="post_item_body"]/h3/a/text()').extract_first().strip(),                 'link': response.urljoin(article.xpath('div[@class="post_item_body"]/h3/a/@href').extract_first()).strip(),                 'summary': article.xpath('div[@class="post_item_body"]/p/text()').extract_first().strip(),                 'author': article.xpath('div[@class="post_item_body"]/div[@class="post_item_foot"]/a/text()').extract_first().strip(),                 'author_link': response.urljoin(article.xpath('div[@class="post_item_body"]/div/a/@href').extract_first()).strip(),                 'comment': article.xpath('div[@class="post_item_body"]/div[@class="post_item_foot"]/span[@class="article_comment"]/a/text()').extract_first().strip(),                 'view': article.xpath('div[@class="post_item_body"]/div[@class="post_item_foot"]/span[@class="article_view"]/a/text()').extract_first().strip(),             }


3. 想要爬取的内容存在页面跳转(例如腾讯社会新闻

class QQNewsSpider(scrapy.Spider):     name = 'qqnews'     start_urls = ['http://news.qq.com/society_index.shtml']     def parse(self, response):         for href in response.xpath('//*[@id="news"]/div/div/div/div/em/a/@href'):             full_url = response.urljoin(href.extract())             yield scrapy.Request(full_url, callback=self.parse_question) #调用scrapy中Request方法,对合并后的网址进行分析,调用函数是parse_question     #真正意义上解析页面的函数     def parse_question(self, response):         print response.xpath('//div[@class="qq_article"]/div/h1/text()').extract_first()         print response.xpath('//span[@class="a_time"]/text()').extract_first()         print response.xpath('//span[@class="a_catalog"]/a/text()').extract_first()         print "\n".join(response.xpath('//div[@id="Cnt-Main-Article-QQ"]/p[@class="text"]/text()').extract())         print ""         yield {             'title': response.xpath('//div[@class="qq_article"]/div/h1/text()').extract_first(),             'content': "\n".join(response.xpath('//div[@id="Cnt-Main-Article-QQ"]/p[@class="text"]/text()').extract()),             'time': response.xpath('//span[@class="a_time"]/text()').extract_first(),             'cate': response.xpath('//span[@class="a_catalog"]/a/text()').extract_first(),         }


4. 通过创建scrapy工程的方式爬取全国34个省、市所属的2290个地区的历史天气预报数据,网址请戳这里,并将其保存为json格式

之前跟大家分享的案例大多是参照网络视频资源和相关博客资料,这两天由于项目需要,爬取全国34个省、市所属的2290个地区的历史天气预报数据,真正动手才发现“纸上得来终觉浅,绝知此事要躬行”的道理所在,整个过程碰到很多坑,也请教了一些牛人,终于将数据成功爬取到本地,在此记录下整个爬取过程。

1. 多级页面跳转问题

涉及到多级页面跳转才能爬取到数据的场景,有两个方面是需要特别注意的,第一是确保整个页面跳转过程的逻辑正确,第二是跳转到某个具体页面使用xpath进行路经查询时,要保证xpath的写的没有问题。

2. Scrapy终端(Scrapy shell)

Scrapy终端是一个交互终端,供您在未启动spider的情况下尝试及调试您的爬取代码。 其本意是用来测试提取数据的代码,不过您可以将其作为正常的Python终端,在上面测试任何的Python代码。
对于检查xpath路径查询语言是否正确非常,举个例子,我想要爬取某个城市2017年一月的天气中的日期数据,

根据html中提供的路径,我写了如下的xpath表达式

day = sel.xpath('//div[@class="tqtongji2"]/ul[position()>1]/li[1]/a/text()').extract()


具体对不对,能不能爬取到相对应的日期数据,我们就可以利用scrapy shell进行检查。

(1)首先在命令窗口启动scrapy shell,启动语句也很简单,如下

scrapy shell url
其中url表示想测试的网页链接。

https://img1.sycdn.imooc.com//5d31b5000001e82107120172.jpg  Paste_Image.png

(2)输入需要检查的xpath语句

https://img1.sycdn.imooc.com//5d31b5020001ce4307300258.jpg  Paste_Image.png

可以看到输出结果中已经正确提取出我们需要的日期数据,从而也说明我们写的xpath路径没有问题。

3. 爬虫正式开始

(1)建立scrapy工程

利用前面讲到的方法创建相应的scrapy工程,在item.py中创建需要爬去的数据如下:

https://img1.sycdn.imooc.com//5d31b50600014ecf07230314.jpg  Paste_Image.png

(2)爬虫spider脚本

我们打开需要爬取页面的首页如下,http://lishi.tianqi.com/

https://img1.sycdn.imooc.com//5d31b50a00014f6206460327.jpg  Paste_Image.png

从页面中我们可以看到,全国各县区的城市按照A,B,C...Z顺序排列,每个字母下面包含很多城市,比如字母A下面包含阿城等地方。且每一类下面的第一个li标签是不需要的,因为第一个li标签表示的是字母A,B,C...Z等,如下图

析到这一步,我们可以写出一级解析函数parse来获取所有城市—链接和城市名的xpath路径查询语言,


链接如下:

sel = Selector(response) country_urls = sel.xpath('//ul[@class="bcity"]/li[position()>1]/a/@href').extract()


城市名如下:

sel = Selector(response) country_urls = sel.xpath('//ul[@class="bcity"]/li[position()>1]/a/text()').extract()


接下来就是每个城市(链接)进行for循环遍历,将每个城市的链接url和城市名城保存到item中,保存file_name目的在于为了待会儿写入数据时方便。将所有获取到的城市链接和城市名保存到items列表中,然后使用for循环对每个城市的进行二级页面解析,调用的是scrapy的Request方法,Request中的回调函数callback就是二级页面解析函数second_parse。

可以看到,澳门所有历史数据(按月)都在div class = "tqtongji" 标签下面,每年的数据又被一个ul标签包围,每个ul标签下面拥有很多个li标签,分别表示一年的各个月份数据,分析到此,我们同样可以在二级解析页面函数中写出获取每个城市每个月链接和月份名称的xpath路径

链接如下:

sel = Selector(response) month_urls = sel.xpath('//div[@class="tqtongji1"]/ul/li/a/@href').extract()


城市名如下:

sel = Selector(response) month_titles = sel.xpath('//div[@class="tqtongji1"]/ul/li/a/text()').extract()


同样,获取到每个城市每个月份的链接后,在二级解析函数里面对每个月份进行遍历,最后仍然使用scrapy.Request对每个获取的月份链接进行解析,回调函数是三级页面解析函数detail_parse。
以下是二级页面解析函数的脚本

 Paste_Image.png

最后跳转到我们最终要爬取数据的页面了,到了这一页面之后(如下图),便能够很方便的爬取到我们需要的数据。

到此,爬取数据的spider脚本已经全部开发完成,不过为了将数据按照城市分别保存到本地,还需要在pipeline中进行相应设置如下:

喜欢的朋友请小小的点个赞,你的肯定会让我更有动力!!!



作者:FengYabing
链接:https://www.jianshu.com/p/a45dacd2d938


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消