为了账号安全,请及时绑定邮箱和手机立即绑定

为什么有时候爬虫会卡住不能运行了,但是也没有报错?

我按照Python开发简单爬虫做了一个实例,但是运行时发现爬100以内没什么问题,但是扩大范围,比如爬1000条,有时就卡住了,比如他就输出craw104就卡住了,有可能是什么原因呢?

正在回答

2 回答

这应该不是解决方案,如果内容没有遍历完就执行下一个了,因为你定死了时间;我加了try...except可以跳过报错的地方,应该还有更好的方法,寻找中

0 回复 有任何疑惑可以回复我~

然而我找到答案了,原因大概是网络问题,导致 response = urllib2.urlopen(url)没有反应,然后卡死

解决方案就是加个timeout: response = urllib2.urlopen(url,timeout=5)

这样就能继续往下爬了~

1 回复 有任何疑惑可以回复我~

举报

0/150
提交
取消
Python开发简单爬虫
  • 参与学习       227586    人
  • 解答问题       1288    个

本教程带您解开python爬虫这门神奇技术的面纱

进入课程

为什么有时候爬虫会卡住不能运行了,但是也没有报错?

我要回答 关注问题
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号