您的位置:首页技术文章
文章详情页

Python爬虫的乱码问题?

【字号: 日期:2022-07-30 16:40:27浏览:26作者:猪猪

问题描述

使用python实现模拟登陆并爬取返回页面的时候出现了乱码,目标网页的编码使用utf-8Python爬虫的乱码问题?

相关代码:

#coding=utf-8import urllibimport urllib2headers={ ’Accept’:’text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8’, ’Accept-Encoding’:’gzip, deflate’, ’Accept-Language’:’zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3’, ’Connection’:’keep-alive’, ’User-Agent’:’Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.73 Safari/537.36’}payload={ ’_eventId’:’submit’, ’lt’:’_cF2A0EB3F-D044-046C-6F4A-C828DE0ACE8E_k8B4BE5F5-4CAD-375D-0DDC-FB84A18445DF’, ’password’:’’, ’submit’:’登 录’, ’username’:’’}payload=urllib.urlencode(payload)request = urllib2.Request(posturl, payload, headers)print requestresponse = urllib2.urlopen(request)text = response.read()print text

控制台输出信息:Python爬虫的乱码问题?

第一次遇见这种乱码比较懵逼

问题解答

回答1:

urllib2没有处理压缩的问题,你要使用gzip解压,比如这样

from StringIO import StringIOimport gzipif response.info().get(’Content-Encoding’) == ’gzip’: buf = StringIO(text) f = gzip.GzipFile(fileobj=buf) data = f.read()

总结urllib2比较底层,建议使用requests

标签: Python 编程
相关文章: