好吧啦网
首页
技术文章
操作系统
数据库
服务器
编程开发
网络运营
软件相关
知识问答
您的位置:
首页
技术文章
文章详情页
python爬取页面时,一个URL无法访问导致报错,然后跳过这个报错继续抓取?
更多
QQ空间
微信
QQ好友
腾讯朋友
复制链接
【字号:
大
中
小
】
日期:2022-09-13 09:16:56
浏览:11
作者:猪猪
问题描述
1.抓取到一个错误的URl
2.我的比蠢笨的办法:
问题解答
回答1:
curl里面有个可以设置返回header的,如果取到的数据非200状态,直接跳过处理就好了。
标签:
Python
编程
上一条:
python - 用开源软件快速搭建数据分析平台,请指教
下一条:
网页爬虫 - Python+Selenium+PhantomJs爬虫,如何取得新打开页面的源码?
排行榜
PHP单例模式
1.
node.js - nvm怎么更新node的最新版本呀?
2.
微信$data =file_get_contents(’php://input’)取不到数据,抓包
3.
Angular.js 无法设置Authorization头,该怎么解决?
4.
angular.js - angular2 基础问题,求解答
5.
html5 - Vue绑定动态变量不可用
6.
php laravel框架模型作用域
7.
java成绩管理系统?
8.
python - django 中的 views 输出编码问题
9.
关于docker下的nginx压力测试
10.
javascript - webpack build出错后如何定位文件?
热门标签
PHP
JavaScript
HTML
CSS
java
vue
数据库
微信
百度