文章详情页
python redis 列表插入 速度太慢
浏览:177日期:2022-06-27 17:15:54
问题描述
pool = redis.ConnectionPool(host=host, port=port)client = redis.StrictRedis(connection_pool=pool)for i in range(10000): for j in range(30):client.lpush(IDLE_TASKS, json.dumps(args))
这种执行效率低的可怕。需要等几十秒,才能插入完成。请问有没更高效率的处理手法?
args 只是以一个元组内容随意(1,2,'3')之类
问题解答
回答1:因为我个人没用过redis这个库, 所以只能尝试从你给出的代码去给些建议, 不喜勿喷:
1.不知道你的这个args是哪来的, 但是在这个循环体中, 似乎没看到改变, 所以能否将这个json.dumps(args)放到循环体外面执行:
args_dump = json.dumps(args)for i in range(10000): for j in range(30):client.lpush(IDLE_TASKS, args_dump)
2.看到你大概要生成30万的同样的数据, 能否将这个数据先生成, 再一次性client.lpush? 因为毕竟tcp也有自身的延迟因素
3.可以通过cProfile库去找出耗时长的地方, 也可以尝试换别的库去实现(这个具体得自己去google了)
相关文章:
1. mac连接阿里云docker集群,已经卡了2天了,求问?2. Ant design vue中的联动选择取消操作3. java - 需要一个加密,验证算法4. javascript - 图片链接请求一直是pending状态,导致页面崩溃,怎么解决?5. javascript - nodejs关于进程间发送句柄的一点疑问6. css - 移动端 盒子内加overflow-y:scroll后 字体会变大7. html5 - 关于电脑手机ip地址的问题8. java - 急等。vs写一个简单程序关闭黑窗老是响应很久,然后报错,无法再次运行9. 浅谈Vue static 静态资源路径 和 style问题10. python爬虫 - mongodb 存入了pymongo传入的多个数据之后怎么提取有用的数据
排行榜
