文章详情页
python - scrapy 再次请求的问题
问题描述
如:item[’url’]=response.xpath(’a/@href’)分析出一个链接,然后想从这个链接里的网页再获取一些元素,放入item[’other’]。应该怎么写,谢谢。
问题解答
回答1:def parse_page1(self, response): for url in urls:item = MyItem()item[’url’] = urlrequest = scrapy.Request(url,callback=self.parse_page2)# request = scrapy.Request('http://www.example.com/some_page.html',dont_filter=True,callback=self.parse_page2)request.meta[’item’] = itemyield requestdef parse_page2(self, response): item = response.meta[’item’] item[’other’] = response.xpath(’/other’) yield item
最后附上官方文档https://doc.scrapy.org/en/lat...中文翻译版http://scrapy-chs.readthedocs...
相关文章:
1. golang - 用IDE看docker源码时的小问题2. debian - docker依赖的aufs-tools源码哪里可以找到啊?3. macos - mac下docker如何设置代理4. docker images显示的镜像过多,狗眼被亮瞎了,怎么办?5. docker start -a dockername 老是卡住,什么情况?6. docker pull 错误?7. mac连接阿里云docker集群,已经卡了2天了,求问?8. mac里的docker如何命令行开启呢?9. docker-compose 为何找不到配置文件?10. dockerfile - 为什么docker容器启动不了?
排行榜