python - scrapy爬虫不能循环运行?
问题描述
scrapy只能爬取一个页面上的链接,不能持续运行爬完全站,以下是代码,初学求指导。
class DbbookSpider(scrapy.Spider): name = 'imufe' allowed_domains = [’http://www.imufe.edu.cn/’] start_urls=(’http://www.imufe.edu.cn/main/dtxw/201704/t20170414_127035.html’) def parse(self, response):item = DoubanbookItem()selector = scrapy.Selector(response)print(selector)books = selector.xpath(’//a/@href’).extract()link=[]for each in books: each=urljoin(response.url,each) link.append(each)for each in link: item[’link’] = each yield itemi = random.randint(0,len(link)-1)nextPage = link[i]yield scrapy.http.Request(nextPage,callback=self.parse)
问题解答
回答1:是不是爬得太快让封了
相关文章:
1. Docker for Mac 创建的dnsmasq容器连不上/不工作的问题2. css3 - 一个关于CSS雪碧图的问题3. wordpress - nginx 反代 Varnish 走 Https ,WP后台 ‘您没有足够的权限访问该页面。’4. docker-machine添加一个已有的docker主机问题5. 如何解决Centos下Docker服务启动无响应,且输入docker命令无响应?6. 前端 - webpack如何打包script标签引入的代码7. javascript - REACT组件的样式问题8. java类之间关系中、一般的关联关系是怎样的?(非聚合组合)9. angular.js - 如何在指令里使用ng-click10. html - form 表单 用户名提示和错误提示分开显示?

网公网安备