文章详情页
网页爬虫 - Python爬虫如何正确判断页面是否可以爬取?
问题描述
用Python27些爬虫,想要爬取一些网站,我需要判断网页是否可以爬取,第一反应是通过状态码来判断,但是写完运行后发现有许多目标网站访问它不存在的页面时会返回一个404错误页面,可他的状态码却是200,结果爬回来好多根本就不存在的页面。这个本来是网站设置的问题,但是现在也不能用状态码来判断了,请问还有什么方法可以正确判断一个页面是不是404该不该爬?
问题解答
回答1:首先, 200 状态码,是网络连接状态, 所以你只判断200并不能满足所有网站。
其次, 写爬虫嘛, 你应该实际去看看这些网站的规则是什么,可以先人工判断下, 找找规律, 比如看看网页返回内容是不是有什么特点之类的。
回答2:做个网页内容的判断,如果他网页里面没有内容就直接返回。
回答3:就算是页面状态码200,返回的404页面,应该和正常能爬取的页面html有不同的html元素吧,根据有没有特定的html元素来判断是不是404页面也行的
相关文章:
1. html5 - 百度Ueditor代码高亮和代码段滚动条冲突是怎么回事?2. javascript - 静态页面引公共头尾文件,js怎么写吖?3. docker gitlab 如何git clone?4. javascript - 读取页面源码,页面中所有的换行都被当成<br/>读取出来 了,,求解应该怎么让它被正确的解析5. javascript - 关于一段 for 循环代码执行顺序的问题6. java - 3个dao的数据根据请求参数选择一个映射到一个url上,怎么写比较好?7. docker 17.03 怎么配置 registry mirror ?8. docker网络端口映射,没有方便点的操作方法么?9. 如何调整IDEA中直接运行java程序的日志输出级别?10. docker绑定了nginx端口 外部访问不到
排行榜