文章详情页
Python中使用超长的List导致内存占用过大
浏览:114日期:2022-06-26 15:00:47
问题描述
我需要在一段程序中使用一个长度超过50万的List,但结果就是内存使用率瞬间升高
请问应该用什么方法进行优化?
问题解答
回答1:这个 list 一定要放在内存里吗?
如果你是一条一条处理的,并不需要全在内存,你可以把这些内容先写到磁盘文件,然后打开它,用类似下面的语句:
for item in file(’xxx.txt’).xreadlines(): ... # 解析出你的内容,并处理
相关文章:
1. angular.js - angular内容过长展开收起效果2. javascript - canvas 裁剪空白区域3. docker绑定了nginx端口 外部访问不到4. docker网络端口映射,没有方便点的操作方法么?5. docker不显示端口映射呢?6. nignx - docker内nginx 80端口被占用7. javascript - nodejs调用qiniu的第三方资源抓取,返回401 bad token,为什么8. docker - 各位电脑上有多少个容器啊?容器一多,自己都搞混了,咋办呢?9. docker images显示的镜像过多,狗眼被亮瞎了,怎么办?10. debian - docker依赖的aufs-tools源码哪里可以找到啊?
排行榜
