为了账号安全,请及时绑定邮箱和手机立即绑定

无法运行,却又没报错

代码点击运行,控制台不到一秒就说已结束,但是又不报错,也没文本生成。。。。。。求帮助0.0谢谢啦

正在回答

4 回答

你和我遇到的问题一样  主要是缩进问题;我现在只能出一条就停止了。

0 回复 有任何疑惑可以回复我~
#1

念墨

我的也是,出来第一个,第二个是failed,然后就结束了
2016-02-11 回复 有任何疑惑可以回复我~
#2

念墨 回复 念墨

代码是print ' craw %d : %s ' % (count,new_url)
2016-02-11 回复 有任何疑惑可以回复我~
#3

念墨 回复 念墨

报错了
2016-02-11 回复 有任何疑惑可以回复我~
#4

PhoebeChen 回复 念墨

请问是哪里报错了?我也遇到一样的问题
2016-02-19 回复 有任何疑惑可以回复我~
#5

HHelloWWorld

现在好了吗??
2016-03-27 回复 有任何疑惑可以回复我~
#6

HHelloWWorld 回复 念墨

现在好了吗???
2016-03-27 回复 有任何疑惑可以回复我~
查看3条回复

new_urls, new_data = self.parser.parser(new_url, html_cont)

这句代码怎么理解,分别给new_urls,new_data复制么?

0 回复 有任何疑惑可以回复我~
#1

牛妖妖 提问者

不行。。。。。。我先休息会,现在脑子有点乱,等会再来想,还是谢谢你^_^
2016-01-16 回复 有任何疑惑可以回复我~

#conding:utf8
from spirder import manager, downloader, parser, output


class spirdermain(object):
    def __init__(self):
        self.manager=manager.UrlManager()
        self.downloader=downloader.HtmlDownloader()
        self.parser=parser.HtmlParser()
        self.output=output.HtmlOutput()
        
    def craw(self, root_url):
        count=1
        self.manager.add_new_url(root_url)
        while self.manager.has_new_url():
            try:
                new_url=self.manager.get_new_url()
                print 'craw %d:%s'%(count,new_url)
                html_cont=self.downloader.downloader(new_url)
                new_urls,new_data=self.parser.parser(new_url,html_cont)
                self.manager.add_new_urls(new_urls)
                self.output.collect_data(new_data)
                if count==1000:
                    break
                count=count+1
            except:
                print 'craw failed'
        self.output.output_html()    

if __name__=="_main_":
    root_url="http://baike.baidu.com/link?url=sP2Dq8raiXUsDeUd8GbiC1C1HcvMO8I8dkoUi5UcIiDwFckEBG9G4KHTKVsCPWoPh1y4LDZZKtEeIA59EYISx_"
    obj_spirder=spirdermain()
    obj_spirder.craw(root_url)

额,这是代码。。。。。英文打错了,打成spirder了,但是应该没问题的


0 回复 有任何疑惑可以回复我~

举报

0/150
提交
取消
Python开发简单爬虫
  • 参与学习       227586    人
  • 解答问题       1288    个

本教程带您解开python爬虫这门神奇技术的面纱

进入课程

无法运行,却又没报错

我要回答 关注问题
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号