为了账号安全,请及时绑定邮箱和手机立即绑定

Python开发简单爬虫

蚂蚁帅帅 全栈工程师
难度初级
时长 1小时14分
学习人数
综合评分9.67
646人评价 查看评价
9.9 内容实用
9.6 简洁易懂
9.5 逻辑清晰

已采纳回答 / 慕仙4923546
set数据结构是没有append()方法的,你的收集的数据放到dict结构中更好

已采纳回答 / Yaffy
#coding:utf-8import urllib2import cookieliburl = "http://www.baidu.com"print '第一种方法'response1 = urllib2.urlopen(url)print response1.getcode()print len(response1.read)第一种方法做后获取长度时response1.read 你少个括号应该是response1.read()

最新回答 / 昔杨今雨
我找到我的原因了 在manager里面有字母打错了造成错误 你去查查你的代码是不是有哪儿地方字母打的不对

最新回答 / Roc_J
并且输出第一次就失败,root_url打开就是失败的,为什么,我是pytho3.5

最新回答 / stonesray
不好做吧,毕竟就算是指定页面,当页面更新后还需要更新代码,通用的爬虫适配是个大问题,除非针对某类网站格式相同的页面......我感觉是这个样的哈~

最新回答 / 洛央下
没有运行完吧,没有报错? 我报错的时候只有一条URL,执行完才能打印出来

最赞回答 / PhoebeChen
参考许多人的问题可以通过把try和except的部分注解掉然后执行的时候会出现TypeError: unbound method parse() must be called with HtmlParser instance as first argument (got str...错误里面提到HtmlParser出错原因应该是你没把 HtmlParser 给实例化检查调度程序spider_main.py中的class SpiderMain里的def __init__(self):发现 self.pars...

已采纳回答 / avalon3515
我使用的是python3,根据实际调试发现此处不需要用encode('utf-8'),但是fout = open('output.html', 'w', encoding='utf-8')要把encoding参数加上,因为在windows下默认编码是gbk,忽略次参数会产生错误。

已采纳回答 / blacksea3
有可能中间这一块哪里代码打错了而不是self.urls.has_new_url()==0导致退出循环,python的百科里面是有别的链接的,你可以试着把try-except去掉,让错误直接显示出来中间这一块指的是:<...code...>根据错误位置设置print 相应的变量查看错误原因。
课程须知
本课程是Python语言开发的高级课程 1、Python编程语法; 2、HTML语言基础知识; 3、正则表达式基础知识;
老师告诉你能学到什么?
1、爬虫技术的含义和存在价值 2、爬虫技术架构 3、组成爬虫的关键模块:URL管理器、HTML下载器和HTML解析器 4、实战抓取百度百科1000个词条页面数据的抓取策略设定、实战代码编写、爬虫实例运行 5、一套极简的可扩展爬虫代码,修改本代码,你就能抓取任何互联网网页!

微信扫码,参与3人拼团

微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号

友情提示:

您好,此课程属于迁移课程,您已购买该课程,无需重复购买,感谢您对慕课网的支持!

本次提问将花费2个积分

你的积分不足,无法发表

为什么扣积分?

本次提问将花费2个积分

继续发表请点击 "确定"

为什么扣积分?

举报

0/150
提交
取消