python使用pipeline批量读写redis的方法
2022/7/7 2:23:01
本文主要是介绍python使用pipeline批量读写redis的方法,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
1.插入数据
1. >>> import redis 2. 3. >>> conn = redis.Redis(host='192.168.8.176',port=6379) 4. 5. >>> pipe = conn.pipeline() 6. 7. >>> pipe.hset("hash_key","leizhu900516",8) 8. Pipeline<ConnectionPool<Connection<host=192.168.8.176,port=6379,db=0>>> 9. 10. >>> pipe.hset("hash_key","chenhuachao",9) 11. Pipeline<ConnectionPool<Connection<host=192.168.8.176,port=6379,db=0>>> 12. 13. >>> pipe.hset("hash_key","wanger",10) 14. Pipeline<ConnectionPool<Connection<host=192.168.8.176,port=6379,db=0>>> 15. 16. >>> pipe.execute() 17. [1L, 1L, 1L] >>>
2.批量读取数据
1. >>> pipe.hget("hash_key","leizhu900516") 2. Pipeline<ConnectionPool<Connection<host=192.168.8.176,port=6379,db=0>>> 3. 4. >>> pipe.hget("hash_key","chenhuachao") 5. Pipeline<ConnectionPool<Connection<host=192.168.8.176,port=6379,db=0>>> 6. 7. >>> pipe.hget("hash_key","wanger") 8. Pipeline<ConnectionPool<Connection<host=192.168.8.176,port=6379,db=0>>> 9. 10. >>> result = pipe.execute() 11. 12. >>> print result 13. ['8', '9', '10'] #有序的列表 14. >>>
3.###生产环境批量读写
总结:redis的pipeline就是这么简单,实际生产环境,
根据需要去编写相应的代码,思路同理。如下:
1. redis_db = redis.Redis(host='127.0.0.1',port=6379) 2. data = ['zhangsan', 'lisi', 'wangwu'] 3. 4. with redis_db.pipeline(transaction=False) as pipe: 5. for i in data: 6. pipe.zscore(self.key, i) 7. 8. result = pipe.execute() 9. 10. print result 11. # [100, 80, 78]
线上的redis一般都是集群模式,集群模式下使用pipeline的时候,在创建pipeline的对象时,需要指定
pipe =conn.pipeline(transaction=False)
经过线上实测,利用pipeline取值3500条数据,大约需要900ms,如果配合线程or协程来使用,每秒返回1W数据是没有问题的,基本能满足大部分业务。
这篇关于python使用pipeline批量读写redis的方法的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-11-18Redis安装入门:新手必读指南
- 2024-11-08阿里云Redis项目实战入门教程
- 2024-11-08阿里云Redis资料:新手入门与初级使用指南
- 2024-11-08阿里云Redis教程:新手入门及实用指南
- 2024-11-07阿里云Redis学习入门:新手必读指南
- 2024-11-07阿里云Redis学习入门:从零开始的操作指南
- 2024-11-07阿里云Redis学习:初学者指南
- 2024-11-06阿里云Redis入门教程:轻松搭建与使用指南
- 2024-11-02Redis项目实战:新手入门教程
- 2024-10-22Redis入门教程:轻松掌握数据存储与操作