文章详情页
python - scrapy运行爬虫一打开就关闭了没有爬取到数据是什么原因
问题描述
爬虫运行遇到如此问题要怎么解决
问题解答
回答1:很可能是你的爬取规则出错,也就是说你的spider代码里面的xpath(或者其他解析工具)的规则错误。导致没爬取到。你可以把网址print出来,看看是不是[]
相关文章:
1. docker api 开发的端口怎么获取?2. css - 关于input标签disabled问题3. html5 - 百度Ueditor代码高亮和代码段滚动条冲突是怎么回事?4. java基础,求解答。5. javascript - 静态页面引公共头尾文件,js怎么写吖?6. 如何调整IDEA中直接运行java程序的日志输出级别?7. debian - docker依赖的aufs-tools源码哪里可以找到啊?8. css3中translate(-50%,-50%)对 transform-origin的奇葩影响?9. javascript - vue 数据更新了。但是dom没有更新,,,,,如图10. mysql - sql 中 group 和field 查询问题。
排行榜