您的位置:首页技术文章
文章详情页

网页爬虫 - 关于python3.x 编写爬虫异常问题请各位大神帮忙!

【字号: 日期:2022-09-01 09:42:58浏览:16作者:猪猪

问题描述

这段代码一直出现异常,但只要把导入的库稍加更改在python2.x中运行是没有问题的,请问大神问题出在哪?出现的异常也总变,小弟初学爬虫,请赐教!

import urllib.errorimport urllib.requestimport urllib.parseurl = ’http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=https://www.baidu.com/link HTTP/1.1’data = {}data[’type’]= ’AUTO’data[’i’] = ’I am fine !’data[’doctype’] = ’json’data[’xmlVersion’] = ’1.8’data[’keyfrom’] = ’fanyi.web’data[’ue’] = ’UTF-8’data[’action’] = ’FY_BY_CLICKBUTTON’data[’typoResult’] = ’true’head = {}head[’User-Agent’]= ’Mozilla/5.0 (Windows NT 6.1; WOW64; rv:52.0) Gecko/20100101 Firefox/52.0’ try: data = urllib.parse.urlencode(data).encode(’utf-8’) req = urllib.request.Request(url,data,head) response = urllib.request.urlopen(req) html = response.read().decode(’utf-8’) print(html)except urllib.error.HTTPError as e: print (’Error code : ’,e.code)except urllib.error.URLError as e: print (’The reason: ’,e.reason)

昨天是这样的:网页爬虫 - 关于python3.x 编写爬虫异常问题请各位大神帮忙!

今天运行就这样了:网页爬虫 - 关于python3.x 编写爬虫异常问题请各位大神帮忙!

问题解答

回答1:

删掉url后面 HTTP/1.1,url后面加它干嘛。。

网页爬虫 - 关于python3.x 编写爬虫异常问题请各位大神帮忙!

回答2:

Python3不用解码和编码啦,还有些模块的用法不一样了,自己看一下Python3的文档吧

回答3:

网页爬虫 - 关于python3.x 编写爬虫异常问题请各位大神帮忙!

标签: Python 编程
相关文章: