您的位置:首页技术文章
文章详情页

python爬取页面时,一个URL无法访问导致报错,然后跳过这个报错继续抓取?

【字号: 日期:2022-09-13 09:16:56浏览:11作者:猪猪

问题描述

1.抓取到一个错误的URlpython爬取页面时,一个URL无法访问导致报错,然后跳过这个报错继续抓取?

python爬取页面时,一个URL无法访问导致报错,然后跳过这个报错继续抓取?

2.我的比蠢笨的办法:

python爬取页面时,一个URL无法访问导致报错,然后跳过这个报错继续抓取?python爬取页面时,一个URL无法访问导致报错,然后跳过这个报错继续抓取?

问题解答

回答1:

curl里面有个可以设置返回header的,如果取到的数据非200状态,直接跳过处理就好了。

标签: Python 编程