04--Redis安装配置、原生命令、Redis高级:慢查询、事务、位图、HyperLogLog、GEO
2022/9/8 2:23:16
本文主要是介绍04--Redis安装配置、原生命令、Redis高级:慢查询、事务、位图、HyperLogLog、GEO,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!
redis内容
1 redis安装配置 2 5大数据类型操作 3 通用指令 4 高级数据类型 BitMaps位图 HyperLogLog 超小内存唯一值计数 # 与布隆过滤器类似 GEO地理位置信息 5 功能丰富: pipeline事务 Luau脚本 发布订阅(消息) 6 持久化:rdb和aof 7 主从复制 (一主一从,一主多从) # 支持主服务器同步到从服务器中 8 sentinel哨兵(高可用) # v2.8 支持高可用 9 redis集群原理和搭建 # v3.0 支持分布式 10 缓存更新策略,缓存粒度、缓存穿透、击穿、雪崩
1 redis安装和配置
##### 1 下载安装 源码安装 # 下载 wget http://download.redis.io/releases/redis-5.0.7.tar.gz # 解压 tar -xzf redis-5.0.7.tar.gz # 建立软连接 ln -s redis-5.0.7 redis # 方便版本迭代 cd redis make&&make install # 可执行文件 在src目录下可以看到 redis-server ---> redis服务器 redis-cli ---> redis命令行客户端 redis-benchmark ---> redis性能测试工具 redis-check-aof ---> aof文件修复工具 redis-check-dump ---> rdb文件检查工具 redis-sentinel ---> sentinel服务器,哨兵 ##### 2 服务端启动配置 # 三种启动方式 需要在redis可执行文件目录中 ./src/ 1 默认启动 # 用的很少 redis-server 2 动态参数启动 # 用的很少 redis-serve --port 6380 # 启动,监听6380端口 3 配置文件启动 # 常用 redis-server conf/redis.conf # 常用配置参数 daemonize yes # 是否以守护进程启动 pidfile /var/run/redis.pid # 进程号(文件)的位置,删除就是关闭进程 port 6379 # 端口号 dir "/opt/soft/redis/data" # 工作目录 数据存放的目录 logfile “6379.log” # 日志位置 # bind 127.0.0.1 # 只监听本地地址的客户端 不支持远程连接 bind 0.0.0.0 protected-mode no # 保护模式 关闭 requirepass 123456 # 连接密码 # 查看是否启动 查看进程 ps aux |grep redis # 查看redis端口 netstat -antpl|grep redis # 关闭进程 redis-server kill -9 进程id号 redis-cli shutdown # 客户端连接 redis-cli -h 地址 -p 端口 redis-cli # 默认连接 本地ip的 6379 # 配置了密码,如何连接登陆 # 方式一 redis-cli -h 127.0.0.1 -p 6370 -a 123456 # 方式二 redis-cli -h 服务器地址 auth 密码 # 查看redis的配置信息 可直接在交互式命令行下修改 CONFIG GET * # 查看所有配置信息 CONFIG SET maxmemory 128M # 设置内存最大占用 128m CONFIG REWRITE # 把修改写到配置文件中 # redis的应用场景 -缓存系统 -计数器 :网站访问量,转发量,评论数(文章转发,商品销量,单线程模型,不会出现并发问题) -消息队列 :发布订阅,阻塞队列实现(简单的分布式,blpop:阻塞队列,生产者消费者) -排行榜 :有序集合 阅读排行,点赞排行,推荐(销量高的,推荐) -社交网络 :很多特效跟社交网络匹配,粉丝数,关注数 -实时系统 :垃圾邮件处理系统,布隆过滤器(id 去重) # 注意:!!! 1.redis是单线程架构,故所有时间复杂度为0(n)的命令操作,你需要判断消费时间多长 因为所有命令是单线程排队执行的,某个命令时间过长,会导致整体都夯住
2 API的使用
2.1 通用命令
##### 1---keys 时间复杂度为o(n) # 打印出所有key keys * # 打印出所有以he开头的key keys he* # 打印出所有以he开头,第三个字母是h到l的范围 keys he[h-l] # 三位长度,以he开头 ?表示任意一位 keys he? # 强调: keys命令一般不在生产环境中使用,生产环境key很多 使用scan命令 ##### 2---dbsize 计算key的总数 o(1) dbsize # redis内置了计数器,插入删除值该计数器会更改 所以可以在生产环境使用 ##### 3---exists key o(1) # 设置a set a b # 查看a是否存在 exists a (integer) 1 # 存在返回1 不存在返回0 ##### 4---del key o(1) 删除成功返回1,key不存在返回0 ##### 5---expire key seconds o(1) expire name 3 # 设置3s 过期 ttl name # 查看name还有多长时间过期 persist name # 去掉name的过期时间 ##### 6---type key o(1) type name # 查看name类型,返回string ##### 7---其他命令 info # 查看信息 内存,cpu,主从相关 client list # 查看正在连接的会话 client kill ip:端口 # 关闭某个redis客户端 dbsize # 查看共有多少个key flushall # 清空所有 flushdb # 只清空当前库 select 数字 # 选择某个库 总共16个库 monitor # 记录操作日志,夯住(日志审计) !!! # 7的相关命令 可写在简历中:自动化监控redis相关项目 eg:python的subprocess 执行相关命令 ./src/redis-cli -a 123456 client list
2.2 字符串命令
# 字符串键值结构 key value hello world # 可以很复杂,如:接口返回数据 直接用json格式字符串 counter 1 # 数字类型 bits 10101010 # 二进制(位图) # 字符串value不能大于512m,一般建议100k以内 # 用于缓存、计数器、分布式锁、分布式id生成... ##### 1---基本使用:get、set、del get name # 时间复杂度 o(1) set name lqz # 时间复杂度 o(1) del name # 时间复杂度 o(1) ##### 2---其他使用:incr、decr、incrby、decrby incr age # 对age的value值自增1 decr age # 对age的value值自减1 incrby age 10 # 对age的value值增加10 decrby age 10 # 对age的value值减少10 # 统计网站访问量 (单线程无竞争,天然适合做计数器) # 缓存mysql的信息 (json格式) # 分布式id生成 (多个机器同时并发着生成,不会重复) ##### 3---set,setnx,setxx set name lqz # 不管key是否存在,都设置 setnx name lqz # key不存在时才设置(新增操作) set name lqz nx # 同上 set name lqz xx # key存在,才设置(更新操作) ##### 4---mget mset mget key1 key2 key3 # 批量获取key1,key2 o(n) mset key1 value1 key2 value2 key3 value3 # 批量设置 o(n) # n次get和mget的区别 n次get时间 = n次网络时间 + n次命令时间 mget时间 = 1次网络时间 + n次命令时间 ##### 5---其他:getset,append,strlen getset name lqznb # 设置新值并返回旧值 o(1) append name 666 # 将value追加到旧的value o(1) strlen name # 计算字符串长度(注意中文) o(1) ##### 6---其他:incrybyfloat,getrange,setrange increbyfloat age 3.5 # 为age自增3.5,传负值表示自减 o(1) getrange key start end # 获取字符串制定下标所有的值 o(1) setrange key index value # 从指定index开始设置value值 o(1)
2.3 hash命令
# 本质类似于 字典 ##### 1---hget、hset、hdel hget key field # 获取hash key的某个field的value o(1) hset key field value # 设置hash key的某个field的value o(1) hdel key field # 删除hash key的某个field o(1) # eg: hset user:1:info age 23 # key的形式:user:id:info 写的很长 防止重复 hget user:1:info age hset user:1:info name lqz hgetall user:1:info hdel user:1:info age ##### 2---hexists、hlen hexists key field # 判断hash key 是否存在field o(1) hlen key # 获取hash key field的数量 o(1) # eg: hexists user:1:info name hlen user:1:info ##### 3---hmget、hmset hmget key field1 field2 ...fieldN # 批量获取hash key 的一批field对应的值 o(n) hmset key field1 value1 field2 value2 # 批量设置hash key的一批field value o(n) ##### 4---hgetall、hvals、hkeys hgetall key # 返回hash key 对应的所有field和value o(n) hvals key # 返回hash key 对应的所有field的value o(n) hkeys key # 返回hash key 对应的所有field o(n) ### 小心使用hgetall。先使用hlen判断字典长度,再判断批量获取还是分批获取 ##### 5---其他操作 hsetnx,hincrby,hincrbyfloat hsetnx key field value # 设置hash key对应field的value(如果field已存在,则失败) o(1) hincrby key field intCounter # 设置hash key对应的field的value自增intCounter o(1) hincrbyfloat key field floatCounter # hincrby 浮点数 o(1) # 用途: 1 计算网站每个用户主页的访问量 hincrby userinfopageview user:1:info count 2 缓存mysql的信息,直接设置hash格式
2.4 列表类型
# 有序队列:可重复,可以从左侧添加,右侧添加,可以从左右两边弹出 ##### 1---插入操作 # rpush 从右侧插入 rpush key value1 value2 ...valueN # o(1~n) # lpush 从左侧插入 lpush key value1 value2 ...valueN # o(1~n) # linsert 从某个位置插入 # 从元素value的前或后插入newValue o(n),需要遍历列表 linsert key before|after value newValue # eg: linsert listkey before b java linsert listkey after b php ##### 2---删除操作 # 从列表左侧弹出一个item o(1) lpop key # 从列表右侧弹出一个item o(1) rpop key # 根据count值,从列表中删除为value的项 o(n) lrem key count value count>0 # 从左到右,删除最多count个 value count<0 # 从右向左,删除最多|count|个 value count=0 # 删除所有为value的项 # eg: lrem listkey 0 a # 删除列表中所有值a lrem listkey -1 c # 从右侧删除1个c # 按照索引范围修剪列表 o(n) ltrim key start end # eg: ltrim listkey 1 4 # 只保留下表1--4的元素 ##### 3---查询操作 # 获取列表指定索引范围所有item 包含end o(n) lrange key start end # eg: lrange listkey 0 2 lrange listkey 1 -1 # 获取第一个位置到倒数第一个位置的元素 # 获取列表指定索引的item o(n) lindex key index # eg: lindex listkey 0 lindex listkey -1 # 获取列表长度 llen key ##### 4---修改操作 # 设置列表指定索引值为newValue o(n) lset key index newValue # eg: lset listkey 2 ppp # 把第二个位置设为'ppp' ##### 5---其他操作 blpop key timeout # lpop的阻塞版,timeout是阻塞超时时间 o(1) brpop key timeout # rpop的阻塞版,timeout是阻塞超时时间 o(1) # 要实现栈的功能 先进后出 lpush+lpop 左插左出 # 实现队列功能 先进先出 lpush+rpop 左插右出 # 固定大小的列表 lpush+ltrim # 消息队列 lpush+brpop # 用途: 主要是用来 存有先后顺序的 实现timeLine(时间线/轴)功能 eg: 微博关注的人、状态发布 按时间轴排列,依次在列表中放入 关注人的微博id 或者 状态id
2.5 集合操作
# 无序,无重复,集合间操作(交叉并补) # 向集合key添加element(如果element存在,添加失败) o(1) sadd key element # 从集合中的element移除掉 o(1) srem key element # 计算集合大小 scard key # 判断element是否在集合中 sismember key element # 从集合中随机取出count个元素,不会破坏集合中的元素(抽奖) srandmember key count # 从集合中随机弹出一个元素 原集合该元素就没了 spop key # 获取集合中所有元素 !!! 无序,小心使用,会阻塞住 o(n) smembers key # 计算1和2的差集 sdiff user:1:follow user:2:follow # 计算1和2的交集 sinter user:1:follow user:2:follow # 计算1和2的并集 sunion user:1:follow user:2:follow # 将差集,交集,并集结果保存在destkey集合中 sdiff|sinter|suion + store destkey # 用途 1.抽奖系统 :通过spop来弹出用户的id,活动取消,直接删除 2.点赞/点踩/喜欢等 :用户如果点了赞,就把用户id放到该条记录的集合中 3.标签 :给用户/文章等添加标签,sadd user:1:tags 标签1 标签2 标签3 4.共同好友 :sinter交集 集合间的操作 sadd:可以做标签相关 spop/srandmember:可以做随机数相关 sadd/sinter:社交相关
2.6 有序集合
# 本质:有一个分值字段,来保证顺序 key score value user:ranking 1 lqz user:ranking 99 lqz2 user:ranking 88 lqz3 # 集合与有序集合 集合:无重复元素,无序,element 有序集合:无重复元素,有序,element+score # 列表和有序集合 列表:可以重复,有序,element 有序集合:无重复元素,有序,element+score # 添加元素 score可重复,可添加多个,element不能重复 o(logN) zadd key score element # 元素重复时,就是修改元素对应的分数 # 删除元素,可多个同时删除 o(1) zrem key element # 获取元素的分数 o(1) zscore key element # 增加或减少元素的分数 o(1) zincrby key increScore element # 返回元素总个数 o(1) zcard key # 返回element元素的排名(从小到大排) zrank key element # 返回排名,不带分数 o(log(n)+m) n是元素个数,m是要获取的值 zrange key 0 -1 # 返回排名,带分数 zrange key 0 -1 withscores # 返回指定分数范围内的升序元素 o(log(n)+m) zrangebyscore key minScore maxScore eg:zrangebyscore user:1:ranking 90 210 withscores # 获取90分到210分的元素 # 返回有序集合内在指定分数范围内的个数 o(log(n)+m) zcount key minScore maxScore # 删除指定排名内的升序元素 o(log(n)+m) zremrangebyrank key start end eg:zremrangebyrank user:1:rangking 1 2 # 删除升序排名中1到2的元素 # 删除指定分数内的升序元素 o(log(n)+m) zremrangebyscore key minScore maxScore eg:zremrangebyscore user:1:ranking 90 210 # 删除分数90到210之间的元素 # 其他操作 zrevrank # 从高到低排序 zrevrange # 从高到低排序取一定范围 zrevrangebyscore # 返回指定分数范围内的降序元素 zinterstore # 对两个有序集合交集 zunionstore # 对两个有序集合求并集 # 用途: 排行榜:音乐排行榜,销售榜,关注榜,游戏排行榜
3 高级api使用
http://www.liuqingzheng.top/db/Redis系列/03-Redis系列之-高级用法/
3.1 慢查询
# 慢查询介绍 配置一个时间(默认也有配置),如果查询时间超过了设置时间,认为这是一个慢查询 # redis执行生命周期 1.客户端发送命令--->2.进入服务端命令队列--->3.执行命令--->4.返回结果 慢查询发生在第3阶段 # 客户端超时不一定是慢查询,但慢查询是客户端超时的一个可能因素 # 慢查询配置 slowlog-max-len # 设置慢查询对列的大小 # 表示记录多少条慢查询命令 默认为128 # 是一个先进先出的对列 固定长度 保存在内存中 slowlog-log-slower-than # 慢查询阈值(单位:微秒μs) # 表示命令执行时间超过该值 就记录到慢查询对列中 >0 # 是否记录的时间阈值 默认为10000μs =10ms =0 # 记住所有命令 <0 # 不记录任何命令 # 动态修改配置 或者 修改配置文件(只写配置参数和值) # 设置记录阈值 1000μs =1ms config set slowlog-log-slower-than 1000 # 最多记录1000条 config set slowlog-max-len 1000 # 持久化到本地配置文件 config rewrite # 慢查询命令操作 slowlog get [n] # 获取慢查询队列的第N个命令 ''' 日志由4个属性组成: 1)日志的标识id 2)发生的时间戳 3)命令耗时 4)执行的命令和参数 ''' slowlog len # 获取慢查询队列长度 slowlog reset # 清空慢查询队列 # 宝贵经验 1 slowlog-max-len 不要设置过小 # 通常设置1000左右 2 slowlog-log-slower-than 不要设置过大,默认10ms # 通常设置1ms 3 理解命令生命周期 4 定期持久化慢查询 # 延伸使用: redis性能不高了,如何取排除 # ---> 写成简历中项目收获、项目中遇到的问题 之前在项目遇到的问题是:redis正常情况速度挺快,有几次突然redis很慢 我就正常排查,大概方向就是肯定有漫长命令在执行 通过 慢查询命令: slowlog len/get/reset 记录哪些命令会导致慢查询后,以后尽量避免使用
3.2 pipeline和watch
3.2.1 pipeline
# 详细:参考 批量执行redis命令 https://www.jianshu.com/p/75137d23ae4a # pipeline(管道) 命令中不支持pipeline,但各个语言客户端支持 将一批命令,批量打包,在redis服务端批量计算(执行),然后把结果批量返回 节约RTT时间(Round Trip Time) # 但是 各个命令之间不能有数据依赖 # 用途: 1.实现redis事务 2.实现乐观锁 # 注意: 1.pipeline期间将“独占” 一个客户端链接 故常pipeline和其他正常操做分离在不同client中 2.pipeline的命令执行过程中,其他client的命令可能会在本pipeline的中间被执行 3.pipeline是需要server和client的共同支持才能实现 4.pipeline的可发送命令数量 受 client端缓冲区大小、server端query buffer/output buffer 限制 # 面试常问:redis的通过pipeline批量 与 原生get、mget有啥区别 n条原生命令时间 = n次网络时间 + n次命令时间 1次pipeline(n条命令) = 1次网络时间 + n次命令时间 mget等原生批量命令时间 = 1次网络时间 + n次命令时间 1.与get等对比:pipeline实现了批量执行多个命令操作,节约了网络io时间 2.与mget等对比: a.pipeline提交的批量命令,服务端可以拆成多次执行 pipeline并非原子性 若部分命令失败,pipeline不会整体回滚 mget等原生批量操作,是一次性执行的,是原子性的 b.原生批量命令是一个命令对应多个key,Pipeline支持多个命令 c.原生批量命令是Redis服务端支持实现的,而Pipeline需要服务端和客户端的共同实现 d.更底层的对比,在redis的底层 io多路复用模型中,把数据从内核缓存区 复制到 用户缓存区时 原生批量命令:需要多次 从内核缓存区(执行结果) 去接受数据 pipeline管道:只需要一次 接受数据 # 节约了这部分资源 性能比批量高一点点 # 使用建议 1 注意每次pipeline携带的数据量 # 大包分小包 小包大小为8k 2 pipeline每次只能作用在一个Redis的节点上 3 M(mset,mget….)操作和pipeline的区别 # watch 实现乐观锁
3.2.2 基于pipeline实现事务和watch
# pipeline管道不是原子性的,但通过pipeline实现的事务是原子性的 全成功or失败 ##### python客户端实现 基于pipeline的事务 import redis pool = redis.ConnectionPool(host='10.211.55.4', port=6379) r = redis.Redis(connection_pool=pool) # 创建pipeline pipe = r.pipeline(transaction=True) # 开启事务 pipe.multi() # 事务添加命令 pipe.set('name', 'lqz') # 其他代码,可能出异常 pipe.set('role', 'nb') # 提交事务 pipe.execute() ##### redis 原生事务 multi # 开启事务 set name lqz # 将命令放到管道queue中 set age 18 exec # 退出事务 并执行queue中的所有命令 # Watch key 命令用于监视一个(或多个) key 监控一直持续到EXEC命令 如果在事务执行之前 这个(或这些) key 被其他命令所改动,那么事务将被打断 # eg: 常用来决定事务是执行还是回滚、乐观锁 # eg: 模拟事务--只能当前客户端自建某个key,其他客户端不允许 # 客户端1: watch age # 在开启事务之前,先watch multi decr age exec # 客户端2: mutil decr age exec # 若在客户端1的exec(执行事务)命令前,先执行客户端2的事务命令 那么客户端1的事务执行就会失败 因为现在被watch 监控的key,已经被修改了 # watch的作用: 乐观锁:乐观的认为本次的key不会被修改,如果被修改,那么本次事务就不成功 被watch的事务,key被修改后 事务不会执行成功 eg: 利用redis的乐观锁,实现秒杀系统的数据同步(基于watch实现) https://www.cnblogs.com/liuqingzheng/p/9997092.html
# redis的乐观锁 秒杀系统核心逻辑测试,创建100个线程并发秒杀 import redis from threading import Thread def choose(name, conn): # conn.set('count',10) with conn.pipeline() as pipe: # 先监视,自己的值没有被修改过 conn.watch('count') # 事务开始 pipe.multi() old_count = conn.get('count') count = int(old_count) # input('我考虑一下') # time.sleep(random.randint(1, 2)) if count > 0: # 有库存 pipe.set('count', count - 1) # 执行,把所有命令一次性推送过去 ret = pipe.execute() print(ret) if len(ret) > 0: print('第%s个人抢购成功' % name) else: print('第%s个人抢购失败' % name) if __name__ == '__main__': conn = redis.Redis(host='127.0.0.1', port=6379) for i in range(100): t = Thread(target=choose, args=(i, conn)) t.start()
3.3 发布订阅(使用较少)
# 角色 发布者、订阅者、频道 发布者发布了消息,所有的订阅者都可以收到,就是生产者消费者模型(后订阅了,无法获取历史消息) # 不是专业的消息队列,发布订阅功能使用很少 通常使用专业的消息队列 rabbitmq 来发布订阅
3.4 BitMaps位图
# 本质就是字符串 bitmaps就是可以操作字符串的bit位 # redis字符串最大 512M 约40亿大小 # 用途: 独立用户的统计 # 一般的公司根本用不到 参考:https://blog.csdn.net/uisoul/article/details/117959561 # 基本原理:统计每日活跃用户 假设用户1亿 userid是自增的int类型 就使用位图 bit对应的序号 就相当于 用户userid号 # 只要用户当日登录,就将对应bit 设置为1 setbit user:view:2020-5-17 3 1 # 统计当日活跃用户数量 bitcount user:view:2020-5-17 --> 1 set hello big # 放入key位hello 值为big的字符串 ### 可以直接操纵位 getbit key offset # 取位图第offset个位置的值 0/1 setbit key offset value # 给位图指定索引 设置值 # eg: setbit hello 7 1 # 把hello的第7个位置设为1 big就变成了cig setbit test 50 1 # 当key不存在时,在key的value的第50位设为1,那其他位都以0补 bitcount key [start end] # 获取位图指定范围位值为1的个数 默认为全部字节 # eg: bitcount user:view:2020-5-17 # 做多个Bitmap的and(交集)/or(并集)/not(非)/xor(异或),操作并将结果保存在destkey中 bitop op destkey key [key...] # eg: bitop and after_lqz lqz lqz2 # 把lqz和lqz2按位与操作 放到after_lqz中 bitpos key targetBit start end # 计算指定范围内第一个比特值为指定bit(0或1)的偏移量 # eg: bitpos lqz 1 # lqz 对应位图中第一个bit为1的位置 bitpos lqz 0 # lqz 对应位图中第一个bit为0的位置 bitpos lqz 1 1 2 # 返回从第一个字节到第二个字节之间 第一个1的位置
3.5 HyperLogLog
# 超小内存唯一值计数 每个键大小为12kb # 本质就是一个基于HyperLogLog算法 超小内存去重的字符串集合 # 三个命令 # 向hyperloglog类型的key 添加元素,可以同时添加多个 pfadd key element # 计算key的独立总数 pfcount key # 合并多个hyperloglog,把sourcekey1和sourcekey2合并为 destroy pfmerge destroy sourcekey1 sourcekey2 # eg: pfadd uuids1 "uuid1" "uuid2" "uuid3" "uuid4" pfadd uuids2 "uuid3" "uuid4" "uuid5" "uuid6" pfmerge uuidsall uuids1 uuids2 # 合并 pfcount uuidsall #统计个数 返回6 # 用途:极小的空间完成独立数量统计 统计注册 IP 数 统计月访问 IP 数 统计用户每天搜索不同词条的个数 # 总结: 1.百万级别独立用户统计,百万条数据只占15k 2.错误率 0.81% 3.无法取出单条数据,只能统计个数 4.一般可以bitmap和hyperloglog配合使用 bitmap标识哪些用户活跃,hyperloglog计数 # 与布隆过滤器类似 都有误差
3.6 GEO 地理信息定位
# 本质是有序集合 zset # GEO(地理信息定位):存储经纬度,计算两地距离,范围等 # eg: 北京:116.28,39.55 天津:117.12,39.08 可以计算天津到北京的距离,天津周围50km的城市,外卖等 # 相关命令 # 增加地理位置信息 geoadd key longitude latitude member # eg: geoadd cities:locations 116.28 39.55 beijing # 把北京地理信息天津到cities:locations中 geoadd cities:locations 117.12 39.08 tianjin geoadd cities:locations 114.29 38.02 shijiazhuang geoadd cities:locations 118.01 39.38 tangshan geoadd cities:locations 115.29 38.51 baoding # 获取地理位置信息 geopos key member # eg: geopos cities:locations beijing # 获取北京地理信息 # 获取两个地理位置的直线距离 unit:m(米) km(千米) mi(英里) ft(尺) geodist key member1 member2 [unit] # eg: geodist cities:locations beijing tianjin km # 北京到天津的距离,89公里 # 根据给定的经纬度,返回半径不超过指定距离的元素 georadius key logitude latitude radiusm|km|ft|mi [withcoord] [withdist] [withhash] [COUNT count] [asc|desc] [store key][storedist key] # 获取指定位置范围内的地理位置信息集合 georadiusbymember key member radiusm|km|ft|mi [withcoord] [withdist] [withhash] [COUNT count] [asc|desc] [store key][storedist key] # 其他参数 withcoord 返回结果中包含经纬度 withdist 返回结果中包含距离中心节点位置 withhash 返回解雇中包含geohash COUNT count 指定返回结果的数量 asc|desc 返回结果按照距离中心店的距离做升序/降序排列 store key 将返回结果的地理位置信息保存到指定键 storedist key 将返回结果距离中心点的距离保存到指定键 # eg: georadiusbymember cities:locations beijing 150 km 1) "beijing" 2) "tianjin" 3) "tangshan" 4) "baoding"
这篇关于04--Redis安装配置、原生命令、Redis高级:慢查询、事务、位图、HyperLogLog、GEO的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!
- 2024-11-18Redis安装入门:新手必读指南
- 2024-11-08阿里云Redis项目实战入门教程
- 2024-11-08阿里云Redis资料:新手入门与初级使用指南
- 2024-11-08阿里云Redis教程:新手入门及实用指南
- 2024-11-07阿里云Redis学习入门:新手必读指南
- 2024-11-07阿里云Redis学习入门:从零开始的操作指南
- 2024-11-07阿里云Redis学习:初学者指南
- 2024-11-06阿里云Redis入门教程:轻松搭建与使用指南
- 2024-11-02Redis项目实战:新手入门教程
- 2024-10-22Redis入门教程:轻松掌握数据存储与操作