为了账号安全,请及时绑定邮箱和手机立即绑定

【爬虫】通关黑板客爬虫闯关游戏

标签:
Python

最近看到的一个关于Python爬虫的闯关游戏,手痒,试他一试。

第一关

地址:http://www.heibanke.com/lesson/crawler_ex00/
打开网址,首页是这样的

Paste_Image.png

按要求修改地址为:http://www.heibanke.com/lesson/crawler_ex00/49163/ ,页面变化是这样的

Paste_Image.png

再次修改:http://www.heibanke.com/lesson/crawler_ex00/26470/

Paste_Image.png

看来,本关卡的目的是使用爬虫获取首页,然后提取进入下一页的关键数字,合成新的页面,如此往复循环,直到找到正确的地址为止。
思路已经有了,静态页面的分析就不说了,看代码

#-*- coding:utf-8 -*-import requestsfrom lxml import etreeimport reimport sys
reload(sys)
sys.setdefaultencoding('utf-8')

headers = {    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36"}#获取页面def getHtml(page):
    url = 'http://www.heibanke.com/lesson/crawler_ex00/'+page
    res = requests.get(url,headers=headers,timeout=30).text    #因为开始的时候不知道成功后的下一个页面地址在哪里,所以将每个页面的源代码都保存了下来,方便查看
    # with open('game.html','w') as f:
    #   f.write(res)
    return res#如果需要继续输入数字,则正则匹配可以成功,#如果不需要继续输入数字了,那么正则匹配之后会报错,所以报错的时候就是成功的时候def main():
    page = ''
    print '开始第一关..'
    while True:        try:
            html = getHtml(page)
            tree = etree.HTML(html)
            h3 = tree.xpath('/html/body/div/div/div[2]/h3/text()')[0]            print h3            if u'恭喜' in h3:
                n_url = tree.xpath('/html/body/div/div/div[2]/a/@href')[0]
                next_url = 'http://www.heibanke.com'+n_url                print '下一关的地址为:%s'%next_url
            page = re.findall('\d+',h3)[0] 
        except Exception,e:            print e            breakif __name__ == '__main__':
    main()

运行结果

...........
恭喜你,你找到了答案.继续你的爬虫之旅吧
下一关的地址为:http://www.heibanke.com/lesson/crawler_ex01/
list index out of range
[Finished in 129.4s]

第二关

地址:http://www.heibanke.com/lesson/crawler_ex01/
这个地址有一点挺奇怪,偶尔出现一个现象:如果你是在闯关游戏的页面地址栏输入该地址,则可以链接到,但是如果你直接从其他页面链接过去,则无法打开,应该是做了Referer检测吧,但为什么是偶尔呢?想不通(逃...)

第二关的页面是这样的

Paste_Image.png

看来是要猜测30次数字了,但是数字是如何提交上去的呢?
随便输入一个值,直接成功的概率太小,主要是让它报错,然后来看请求
发现了这个

Paste_Image.png

源码中也可以看到csrf验证的值

Paste_Image.png

所以该请求是使用post方式传入三个字段的信息,验证失败则修改password再次验证,直到成功为止,故源码如下

#-*- coding:utf-8 -*-import requestsfrom lxml import etreeimport reimport sys
reload(sys)
sys.setdefaultencoding('utf-8')

headers = {    "User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36"}def getcsrf():
    url = 'http://www.heibanke.com/lesson/crawler_ex01/'
    res = requests.get(url,headers=headers,timeout=30).text
    tree = etree.HTML(res)
    csrf = tree.xpath('/html/body/div/div/div[2]/form/input/@value')[0]    #csrf = re.findall('name="csrfmiddlewaretoken" value="(.*?)"',res)
    print csrf    return csrf#猜测密码def guess(csrf,num):
    url = 'http://www.heibanke.com/lesson/crawler_ex01/'
    data = {        "csrfmiddlewaretoken":csrf,        "username":"whaike",        "password":str(num)
    }    print data
    res = requests.post(url,headers=headers,data=data,timeout=30).text
    h3 = re.findall('<h3>(.*?)</h3>',res)[0]    if not u'密码错误' in h3:        print h3
        tree = etree.HTML(res)
        n_url = tree.xpath('/html/body/div/div/div[2]/a/@href')[0]
        next_url = 'http://www.heibanke.com'+n_url        print '下一关的地址为:%s'%next_url        return True
    else:        return Falsedef main():
    page = ''
    print '开始第二关..'
    csrf = getcsrf()    for n in range(31):        if guess(csrf,n):            breakif __name__ == '__main__':
    main()

顺利拿到下一关地址!

第三关

地址:http://www.heibanke.com/lesson/crawler_ex02/
第三关首先需要输入用户名和密码,输入之后发现提示用户不存在,原来需要注册,在这里我用自己的账号注册了一个,登陆之后,就可以继续愉快的玩耍了

Paste_Image.png

看样子第三关首先需要模拟登陆
在这里我使用requests的session对象来保持会话。
分析网页源码,发现参数的提交使用的是一个form标签,其action参数为空,表示提交数据由本页负责,所以post会将参数提交到本页的地址。
因为登陆之后页面会重定向到其他页,所以使用浏览器自带的抓包工具去抓取请求参数并不友好,这里我使用fiddler进行抓包,在请求头中看到这样的字段

Paste_Image.png

所以模拟登陆的时候post传参有三个字段,思路已经清晰:
模拟登陆,使用session会话保持登陆状态并获取第三关的地址页源码,取得csrf,然后递增30以内的数字作为密码传递给服务器,当请求到的页面中不包含“<em>您输入的密码错误, 请重新输入</em>”这样的文字的时候,就是成功的时候了。
源码如下

#-*- coding:utf-8 -*-import requestsfrom lxml import etreeimport reimport sys
reload(sys)
sys.setdefaultencoding('utf-8')

se = requests.session()
headers = {    "User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36"}class HBK():
    def __init__(self):
        self.login_url = "http://www.heibanke.com/accounts/login"
        self.username = "whaike"
        self.password = "12345654321"

    def getCsrf(self):
        res = se.get(url=self.login_url,headers=headers,timeout=30).text
        tree = etree.HTML(res)
        self.csrf = tree.xpath('/html/body/div/div/div[2]/form/input[@name="csrfmiddlewaretoken"]/@value')[0]    def login(self):
        self.getCsrf()
        data = {            "csrfmiddlewaretoken":self.csrf,            "username":self.username,            "password":self.password
        }
        se.post(url=self.login_url,headers=headers,data=data,timeout=30)        print u'登陆成功'print '开始闯关 - 第三关'spider = HBK()
spider.login()

url = 'http://www.heibanke.com/lesson/crawler_ex02/'res = se.get(url,headers=headers,timeout=30).text
tree = etree.HTML(res)#获取csrfcsrf = tree.xpath('/html/body/div/div/div[2]/form/input[@name="csrfmiddlewaretoken"]/@value')[0]#猜测密码def guess(num=1):
    print 'guess',num
    data = {        "csrfmiddlewaretoken":csrf,        "username":"whaike",        "password":str(num)
    }
    res = se.post(url,headers=headers,data=data,timeout=30).text
    tree = etree.HTML(res)
    h3 = tree.xpath('/html/body/div/div/div[2]/h3/text()')[0]    if not u'错误' in h3:        print '猜测到正确的密码为%d'%num        return num #如果没有发现错误两个字,则结束递归
    else:
        guess(num+1)

guess()print 'success'

闯关成功之后发现下一关的地址还是原来的那个,崩溃

Paste_Image.png

不过观察第二关和第三关的地址发现就最后一个路径不一样,有递增的趋势,猜测第四关的地址为:http://www.heibanke.com/lesson/crawler_ex03/ ,果然如此
顺利进入第四关

Paste_Image.png

第四关

地址:http://www.heibanke.com/lesson/crawler_ex03/
第四关又是猜密码,还不知道是什么鬼,所以随便输一个看看有没有提示,果然

Paste_Image.png

去看看提示

Paste_Image.png

原来密码被拆分掉,分开显示在这里,位置和值一一对应。
首先想到将13页全部抓下来,然后按位置去一一对应,可惜这样失败了,13页的所有数据抓了几次,抓下来去重后组成的密码长度有70多位也有80多位的,去登陆也都失败了。没办法,在网上看到有人说密码位数是100位,我去,谁能想到,哪里来那么多数据。后来看到一个方法,既然每页的数据是随机的,那么只抓取第一页的数据,每抓取一次添加到固定长度的密码位,方法可行。

所以思路是:
模拟登陆,初始化一个长度为100的数组用来存放密码,获取第一页的全部位置和值,将它们的值更新到数组的正确位置,合并数组中的值组成一个字符串,判断字符串长度,如果小于100则继续抓取第一页的数据并跟新到数组,直到数组长度满足100,将数组中的值转换为字符串通过post提交到服务器进行判断,如果不成功则继续更新数组中的值,如果成功则打印消息并退出。
具体代码如下

#-*- coding:utf-8 -*-#单线程版import requests
from lxml import etree
import codecs
import csv
import re
import sys
reload(sys)
sys.setdefaultencoding('utf-8')

se = requests.session()


headers = {    "User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36"}class HBK():
    def __init__(self):        self.login_url = "http://www.heibanke.com/accounts/login"
        self.username = "whaike"
        self.password = "12345654321"
        self.passwrods = ['' for i in range(101)]        self.pwd = ''

        ##获取登陆之前的csrf
    def getCsrf(self):
        res = se.get(url=self.login_url,headers=headers,timeout=30).text
        tree = etree.HTML(res)        self.csrf = tree.xpath('/html/body/div/div/div[2]/form/input[@name="csrfmiddlewaretoken"]/@value')[0]    #登陆
    def login(self):        self.getCsrf()
        data = {            "csrfmiddlewaretoken":self.csrf,            "username":self.username,            "password":self.password
        }
        se.post(url=self.login_url,headers=headers,data=data,timeout=30)
        print u'登陆成功'

    #获取登陆之后的csrf,也就是要进行第四关闯关的csrf
    def getNCsrf(self):
        url = 'http://www.heibanke.com/lesson/crawler_ex03/'
        res = se.get(url,headers=headers,timeout=30).text
        tree = etree.HTML(res)
        csrf = tree.xpath('//input[1]/@value')[0]        return csrf    #猜测密码是否正确
    def guesspwd(self):
        url = 'http://www.heibanke.com/lesson/crawler_ex03/'
        csrf = self.getNCsrf()
        data = {            "csrfmiddlewaretoken":csrf,            "username":"whaike",            "password":self.pwd
        }
        res = se.post(url,headers=headers,data=data,timeout=30)        if int(res.status_code) == 200:            self.h3 = re.findall('<h3>(.*?)</h3>',res.text)            return True        else:
            return False    #循环抓取第一页的随机值,直到密码长度为100时开始猜测,猜测失败继续执行,猜测成功停止运行
    def getGasswords(self):
        print '获取第一页'
        url = 'http://www.heibanke.com/lesson/crawler_ex03/pw_list/?page=1'
        res = se.get(url,headers=headers,timeout=30).text
        tree = etree.HTML(res)
        trs = tree.xpath('/html/body/div/div/div[2]/table/tr')[1:]        for tr in trs:
            p1 = tr.xpath('td[1]/text()')[0] #位置
            p = int(re.findall('\d+',p1)[0]) #偶尔数字前会有一些其他字符出现,提取数字部分,转换为整数
            w = tr.xpath('td[2]/text()')[0] #值
            self.passwrods[p] = w        self.pwd = ''.join(self.passwrods)
        length = len(self.pwd) #密码长度
        print '当前密码:%s,长度%d'%(self.pwd,length)
        if length == 100:
            print '满足条件,开始猜测...'
            if self.guesspwd():
                print '猜测成功,密码为:%s'%self.pwd            else:
                print '猜测失败,继续执行'
                self.getGasswords()        else: #如果密码长度不为100,则再次获取第一页的随机密码并组成新的密码
            self.getGasswords() #递归print '开始闯关 - 第四关'spider = HBK()
spider.login()
spider.getGasswords()
print spider.h3

这里还有个坑,网页的反应很慢,每次请求都需要很长时间才能得到数据,所以理想的情况是使用多线程去做,但是我这里使用的是单线程。所以时间会比较长。

运行记录

.............
当前密码:4895069524432954894613647990394874326048437134877661813696344916326470648993670283105253381901613579,长度100满足条件,开始猜测...
猜测成功,密码为:4895069524432954894613647990394874326048437134877661813696344916326470648993670283105253381901613579[u'\u606d\u559c! \u7528\u6237whaike\u6210\u529f\u95ef\u5173, \u7ee7\u7eed\u4f60\u7684\u722c\u866b\u4e4b\u65c5\u5427']
[Finished in 795.7s]

最后一个打印h3的时候忘记添加索引了,导致打印了一个数组(尴尬脸...),懒得改了
第五关地址依然靠猜吧

第五关

地址:http://www.heibanke.com/lesson/crawler_ex04/
进入第五关,看到了这样的界面

Paste_Image.png

通过前几关的经验,可以分析出这次的请求依然是猜密码,只不过增加了验证码识别。
请求的字段为5个:一个是csrf验证,一个在验证码的img标签之后与csrf以相同的方式隐藏value,其实也是验证码src的最后一个路径,还有一个是验证码识别出来的字符,另外两个是用户名和密码。

Paste_Image.png

在这里,我使用开源的OCR库Tesseract(地址:https://github.com/tesseract-ocr/tesseract/wiki) 来进行验证码识别。
在windows上使用只需百度搜索下载并安装tesseract-ocr-setup-3.02.02.exe文件即可,注意,目前良好支持windows的版本只有3.02。
安装完成之后,可以在命令行键入tesseract myscan.png out -l eng来识别当前目录下的myscan.png文件并将结果输出到out.txt中。
在Python中本来使用os模块可以执行命令行,但是这样的命令行过于简单,无法完成复杂的输入和输出,我们可以使用subprocess.Popen来解决这个问题。

所以思路是这样的:
模拟登录,获取csrf和验证码隐藏的value以及下载验证码图片到本地,识别验证码,识别成功则从密码0开始递增猜测,每一次猜测都要获取新的验证码,如果识别验证码失败则重新获取验证码直到识别成功才继续猜测,如果猜测密码时提示输入的验证码不正确,则重新获取验证码并且重新猜测该值,直到成功为止。

相关代码如下

#-*- coding:utf-8 -*-import requestsfrom lxml import etreeimport datetime,timeimport reimport osimport subprocessimport sys
reload(sys)
sys.setdefaultencoding('utf-8')

se = requests.session()

headers = {    "User-Agent":"Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/45.0.2454.101 Safari/537.36"}#log日志def loggs(strs):
    with open('logs.log','ab') as f:
        time = str(datetime.datetime.now())[:-7]
        t = os.linesep
        s = time+' : '+strs        print s
        f.write(s+t)class HBK():
    def __init__(self):
        self.login_url = "http://www.heibanke.com/accounts/login"
        self.chapter_url = 'http://www.heibanke.com/lesson/crawler_ex04/'
        self.username = "whaike"
        self.password = "12345654321"

    #获取登陆之前的csrf
    def getCsrf(self):
        res = se.get(url=self.login_url,headers=headers,timeout=30).text
        tree = etree.HTML(res)
        self.csrf = tree.xpath('/html/body/div/div/div[2]/form/input[@name="csrfmiddlewaretoken"]/@value')[0]    #登陆
    def login(self):
        self.getCsrf()
        data = {            "csrfmiddlewaretoken":self.csrf,            "username":self.username,            "password":self.password
        }
        se.post(url=self.login_url,headers=headers,data=data,timeout=30)
        loggs('登陆成功')    #识别验证码,识别当前目录下的capt.png图片
    def get_captcha(self):
        p = subprocess.Popen(['tesseract','capt.png','captcha'])
        p.wait()        with open('captcha.txt','r') as f:
            data = f.read()
        s= data.strip()        return s    #保存图片
    def saveImg(self,url):
        res = se.get(url,headers=headers,timeout=30)        if res.status_code == 200:            with open('capt.png','wb') as f:
                f.write(res.content)    #获取第五关的页面,得到csrf和验证码图片
    def getinfos(self):
        res = se.get(url=self.chapter_url,headers=headers,timeout=30).text
        tree = etree.HTML(res)
        self.f_csrf = tree.xpath('/html/body/div/div/div[2]/form/input[@name="csrfmiddlewaretoken"]/@value')[0]
        img_src = tree.xpath('/html/body/div/div/div[2]/form/div[3]/img/@src')[0]
        img_url = 'http://www.heibanke.com'+img_src
        self.saveImg(img_url)
        self.img_name = tree.xpath('//*[@id="id_captcha_0"]/@value')[0]        try:
            yzm = self.get_captcha()        except Exception,e:
            yzm = ''
            loggs('验证码识别失败')        if re.match('^[A-Z|0-9]{3,6}$',yzm,re.I):
            loggs('识别出验证码:%s'%yzm)
            self.yzm = yzm        else:
            loggs('验证码识别错误%s,重新获取'%yzm)
            self.getinfos()        #return (self.f_csrf,img_url,self.yzm)

    #猜数字
    def guessNum(self,num=0):
        self.getinfos()
        loggs('guess number %d'%num)
        data = {            "csrfmiddlewaretoken":self.f_csrf,            "username":self.username,            "password":str(num),            "captcha_0":self.img_name,            "captcha_1":self.yzm
        }
        loggs(str(data))
        res = se.post(url=self.chapter_url,headers=headers,data=data,timeout=30)        if res.status_code == 200:
            h3 = re.findall('<h3>(.*?)</h3>',res.text)
            h3 = h3[0]
            loggs(h3)            if u'恭喜' in h3: #如果成功则打印h3,如果失败则继续猜测
                loggs('验证成功!')
                loggs(h3)            elif u'验证码输入错误' in h3:
                loggs('再次请求%s'%res.status_code)
                self.guessNum(num)            else:
                loggs('验证失败,继续猜测')
                self.guessNum(num+1)        else:
            loggs('请求失败%s,再次请求'%res.status_code)
            self.guessNum(num)

loggs('开始闯关 - 第五关')
spider = HBK()
spider.login()
spider.guessNum()

注意:存放py文件的路径不能有中文。
运行结果如下

.........
Tesseract Open Source OCR Engine v3.02 with Leptonica2017-06-07 15:30:36 : 识别出验证码:MPPO2017-06-07 15:30:36 : guess number 202017-06-07 15:30:36 : {'username': 'whaike', 'csrfmiddlewaretoken': 'maXozqF1efyoirhMz41RzhmWCUVc8tYq', 'password': '20', 'captcha_0': 'cd7254fedd008d5e434980de86447c2187e240ac', 'captcha_1': 'MPPO'}2017-06-07 15:30:37 : 恭喜! 用户whaike成功闯关, 后续关卡敬请期待2017-06-07 15:30:37 : 验证成功!2017-06-07 15:30:37 : 恭喜! 用户whaike成功闯关, 后续关卡敬请期待
[Finished in 372.4s]

这里不同的时间其密码也可能不同,比如我第二次识别的时候答案为1那么很快就成功了。

...........
Tesseract Open Source OCR Engine v3.02 with Leptonica2017-06-07 23:00:22 : 识别出验证码:ARCN2017-06-07 23:00:22 : guess number 12017-06-07 23:00:22 : {'username': 'whaike', 'csrfmiddlewaretoken': 'K4eUEZpJ5siJ26f2B9zFue0WsVDZKwna', 'password': '1', 'captcha_0': 'cae8539c36fdcd39f3eab44469e9c066670a1539', 'captcha_1': 'ARCN'}2017-06-07 23:00:23 : 恭喜! 用户whaike成功闯关, 后续关卡敬请期待2017-06-07 23:00:23 : 验证成功!2017-06-07 23:00:23 : 恭喜! 用户whaike成功闯关, 后续关卡敬请期待
[Finished in 19.5s]

<b>关键在过程!</b>

Paste_Image.png

在这里,感谢黑板客提供的好玩儿的爬虫游戏。

作者:whaike
链接:https://www.jianshu.com/p/f64853b8f7e9


点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消