文章详情页
网页爬虫 - Python:爬虫的中文编码问题?
浏览:119日期:2022-08-26 10:56:16
问题描述
爬取中文网页后正则匹配出中文,得打UTF-8的编码字符
将其输出为.csv文件
在.CSV中显示为乱码
用记事本打开.csv又可以正常显示为中文
有没有大神指点是怎么一回事?怎样才能在Excel里直接看到中文?
问题解答
回答1:简单地方法是用pandas的to_excel方法转化成.xlsx文件,因为.xlsx默认编码是默认支持Excel的,区别当然是无法用记事本打开。
import pandas as pda = pd.read_csv(’./test.csv’)a.to_excel(’./test_output.xlsx’, index=False)a.to_excel(’./test_output.csv’, index=False)
我这里没有windows可以测试,可以尝试写入编码为gb2312或者gbk试试。
表格文件类I/O的话其实pandas更方便一点。
回答2:abs1=abs1.decode().encode(’gbk’)
回答3:excel默认使用的是GBK编码。
回答4:新建一个excel文件,然后点 数据 自文本,导入csv文件
相关文章:
1. 主从备份 - 跪求mysql 高可用主从方案2. python - django 里自定义的 login 方法,如何使用 login_required()3. python如何不改动文件的情况下修改文件的 修改日期4. android-studio - Android 动态壁纸LayoutParams问题5. javascript - git clone 下来的项目 想在本地运行 npm run install 报错6. angular.js - 不适用其他构建工具,怎么搭建angular1项目7. mysql主从 - 请教下mysql 主动-被动模式的双主配置 和 主从配置在应用上有什么区别?8. mysql优化 - mysql count(id)查询速度如何优化?9. node.js - 使用 superagent 抓取 UTF-8网站乱码10. sql语句如何按or排序取出记录
排行榜
