为了账号安全,请及时绑定邮箱和手机立即绑定

Python3爬虫基础实战篇之机票数据采集

标签:
Python

项目:艺龙国内机票实时数据爬虫

使用模块:requests(请求模块),js2py(js执行模块),json(解析json),xpath(解析网页)。

项目流程:

  • 分析网站数据来源。

  • 编写爬虫脚本。

  • 验证数据准确性。

  • js逆向破解参数生成。 

  • 更换请求参数城市(飞机起飞城市和落地城市或日期)测试结果是否正常。

1.分析网站数据来源

 进入艺龙机票列表搜索页,附上链接http://flight.elong.com/flightsearch/list?departCity=bjs&arriveCity=sha&departdate=2018-12-24,链接参数日期自行更改。

一般情况数据为调用接口获得,或是在页面中嵌入,这里很明显是调用了接口。

F12打开开发者工具(谷歌浏览器),选择network中的xhr,然后刷新页面或重新搜索,查看调用的接口。(这一步也可以使用抓包工具,推荐使用Fiddler,网上有许多汉化版的,看个人习惯吧。)

 

调用了四个接口,点击接口查看返回结果,确定数据来源。

看到出发机场,航空公司名称之类的英文,ok,就是这个了,点击进入Headers。

 

 数据来源已经确定,下面我们来构造爬虫请求接口。

2.编写爬虫脚本

快速上手requests模块,链接已备好  http://docs.python-requests.org/zh_CN/latest/user/quickstart.html

直接上代码(提示:代码中的请求参数grabcode的值需要自己抓取,有时效性,过期无返回结果导致代码报错):

复制代码

import requests #导入requests模块#请求链接url = 'http://flight.elong.com/search/ly/rest/list'#构造请求头 接口中请求头有的参数最好全写上,之后再了解这些请求头信息是干什么的,这里不做介绍headers = {    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36',
}#请求参数data = {    "p": '{"departCode":"bjs","arriveCityCode":"sha","departDate":"2018-12-24","searchType":"0","classTypes":null,"isBaby":0}',    "grabCode":'6793819',
}#发起请求html = requests.post(url, headers=headers,data=data).textprint(html)

复制代码

有返回结果并且有数据证明我们请求成功了,但是我们还得进一步验证数据准确性。

3.验证数据是否准确

使用json进一步提取关键数据如航班号,最低价等。

复制代码

import requests #导入requests模块import json     #导入json#请求链接url = 'http://flight.elong.com/search/ly/rest/list'#构造请求头 接口中请求头有的参数最好全写上,之后再了解这些请求头信息是干什么的,这里不做介绍headers = {    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36',
}#请求参数data = {    "p": '{"departCode":"bjs","arriveCityCode":"sha","departDate":"2018-12-24","searchType":"0","classTypes":null,"isBaby":0}',    "grabCode":'9151048',
}#发起请求html = requests.post(url, headers=headers,data=data).text#json.loads转化json为一个字典   然后我们可以用字典方法取键和值html = json.loads(html)["flightSelections"]#创建结果列表list = []for i in html:#遍历所有航班
    if len(i["Segments"]) == 1:    #只提取单程,多程排除
        flightnumber = i["Segments"][0]["FlightNumber"]
        price = i["Segments"][0]["Price"]        #航班信息字典
        item = {            "flight": flightnumber,            "price": price,
        }

        list.append(item)print(list)

复制代码

和网页价格对比:

结果正确,证明爬取成功。还没完,上面2,3过程提到grabCode参数的时效性,参数过期会导致接口无返回结果,json解析就会抛出异常。

4.js逆向分析加密请求参数grabCode的生成

接口请求参数中的加密参数都是有迹可循的,前端和后端必须使用相同的加密算法来保证参数的有效性。

后端代码我们不可能看得到,所以就要从前端来分析,前端通过js调用接口,最常见的是jquery库来实现ajax请求。(js原生也可以实现ajax请求)

查找调用接口js位置:

通过关键字grabCode,来查找js调用接口的位置。(这里也可以通过其他方法如请求方式Post来搜索位置)

F12打开开发者工具,使用全局搜索search。

 

 搜索参数名称grabCode

找到了,点击第一个搜索结果,进入查看js,点击左下角的图标格式化js。

使用ctrl+f搜索grabCode的位置

很清晰的可以看到这里就是使用了ajax调用list接口的方法url(接口地址),params(请求参数),methods(请求方式)。

grabCode的值是调用了abcdefg函数。(下面我们可以用js断点调试来获取函数abcdefg的位置,或是按照刚才的方法使用全局搜索来查找也可以,调试更方便一点)

js断点调试:

如图,在grabCode调用方法的行标点击,变成蓝色,表示断点成功,然后刷新页面。

搜索结果正在加载被截断,进一步证实了参数生成就是调用函数abcdefg。

这个小图标的功能叫”逐语句执行“或者叫”逐步执行“,这是我个人理解的一个叫法,意思就是,每点击它一次,js语句就会往后执行一句,它还有一个快捷键,F10。

我们点击一下,发现刚才断点的代码已被执行。鼠标箭头悬停在abcdefg函数上,点击方法可以直接跳过去。

上图对abcdefg函数做了一个解析,了解生成过程,总结一下就是调用网页源代码中的id为tsd的元素的属性值value,替换字符串中的某个值,并调用eval把字符串执行。

取消刚才的断点,在如图所示位置打上新断点,刷新页面。F10执行下一句。

和网页源代码对比一下,ok,正确。

不难看出上面的value值实际为js代码,eval函数会执行这些js代码。

模拟参数生成过程:

我们来使用python模拟一下他的过程:1.获取网页id==“tsd”的属性value的值。2.替换字符使用replace("/\)\^-1/gm", ")&-1")。3.执行js代码。

复制value的值,可以去网页,也可以在js中复制(这里复制出来的格式会有错误,导致js不能执行成功,我们直接去网页抓取好了)。

复制代码

import requests,js2pyfrom lxml import etree
url_list ='http://flight.elong.com/flightsearch/list?departCity=BJS&arriveCity=SHA&departdate=2018-12-24&backdate=&searchType=0'html_list = requests.get(url_list).text
html_list = etree.HTML(html_list)
js = html_list.xpath('//input[@id="tsd"]/@value')[0]
js = js.replace("/\)\^-1/gm", ")&-1")
code = js2py.eval_js(js)print(code)

复制代码

我们再把这个封装成一个函数来供第二步进行调用,搜索url中的三字码和日期可以用一样的(防止出错)。

更换搜索参数城市三字码或日期测试代码是否能正常运行并返回航班及其价格

下面附上全部代码,仅供参考学习。

复制代码

import requests #导入requests模块import json     #导入jsonimport js2py    #导入js执行模块from lxml import etree #xpath使用lxml的etree解析def ticket_api(a,b,c):    #请求链接
    url = 'http://flight.elong.com/search/ly/rest/list'
    #构造请求头 接口中请求头有的参数最好全写上,之后再了解这些请求头信息是干什么的,这里不做介绍
    headers = {        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.87 Safari/537.36',
    }    #请求参数
    data = {        "p": '{"departCode":"%s","arriveCityCode":"%s","departDate":"%s","searchType":"0","classTypes":null,"isBaby":0}'%(a,b,c),        "grabCode":grabCode(a,b,c),
    }    #发起请求
    html = requests.post(url, headers=headers,data=data).text    #json.loads转化json为一个字典   然后我们可以用字典方法取键和值
    html = json.loads(html)["flightSelections"]    #创建结果列表
    list = []    for i in html:#遍历所有航班
        if len(i["Segments"]) == 1:    #只提取单程,多程排除
            flightnumber = i["Segments"][0]["FlightNumber"]
            price = i["Segments"][0]["Price"]            #航班信息字典
            item = {                "flight": flightnumber,                "price": price,
            }

            list.append(item)    print(list)def grabCode(a,b,c):
    url_list ='http://flight.elong.com/flightsearch/list?departCity=%s&arriveCity=%s&departdate=%s&backdate=&searchType=0'%(a,b,c)
    html_list = requests.get(url_list).text
    html_list = etree.HTML(html_list)
    js = html_list.xpath('//input[@id="tsd"]/@value')[0]
    js = js.replace("/\)\^-1/gm", ")&-1")
    code = js2py.eval_js(js)    return codeif __name__ == '__main__':
    a = "bjs"
    b = "czx" #常州czx,上海sha
    c = "2018-12-24"
    ticket_api(a,b,c)

复制代码

 

到这一步,基本上算是完成了。

 

温馨提示

  • 如果您对本文有疑问,请在评论部分留言,我会在最短时间回复。

  • 如果本文帮助了您,也请评论关注,作为对我的一份鼓励。

  • 如果您感觉我写的有问题,也请批评指正,我会尽量修改。

  • 本文为原创,转载请注明出处。

  • 本文所有代码仅供学习参考,在爬取的同时考虑对方的服务器承受能力,适可而止。

原文出处:https://www.cnblogs.com/lyxdw/p/10168690.html  

点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消