# Redis6 **Repository Path**: jianghaok/redis6 ## Basic Information - **Project Name**: Redis6 - **Description**: Redis6学习笔记 - **Primary Language**: Java - **License**: MulanPSL-2.0 - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 1 - **Forks**: 0 - **Created**: 2022-04-15 - **Last Updated**: 2023-09-13 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README Redis6 ## 一)NoSQL数据库简介 ### 1.1)技术发展 技术的分类: - 解决功能性的问题:Java、Jsp、RDBMS、Tomcat、HTML、Linux、JDBC、SVN - 解决扩展性的问题:Struts、Spring、SpringMVC、Hibernate、Mybatis - 解决性能的问题:NoSQL、Java线程、Hadoop、Nginx、MQ、ElasticSearch #### 1.1.1)Web1.0时代 Web1.0的时代,数据访问量很有限,用一夫当关的高性能的单点服务器可以解决大部分问题。 ![输入图片说明](img/01.jpg) #### 1.1.2)Web2.0时代 随着Web2.0的时代的到来,用户访问量大幅度提升,同时产生了大量的用户数据。加上后来的智能移动设备的普及,所有的互联网平台都面临了巨大的性能挑战。 ![输入图片说明](img/02.jpg) ##### 1.1.2.1)解决CPU及内存压力方案 ![输入图片说明](img/03.jpg) Session存储问题解决方案: 1. 存储在客户端或cookie信息中 优点:每次访问请求都会带着cookie信息【里面存储着用户信息】可以保证Session共享 缺点:存储在客户端安全性无法保证 2. Session复制 将Session信息复制到每一个节点对应的服务中 缺点:Session数据冗余,节点越多浪费越大 3. 存储到NoSQL数据库 优点:无需经过I/O操作,完全在内存中,读取速度快 ##### 1.1.2.2)解决IO压力方案 ![输入图片说明](img/04.jpg) 将经常需要查询的参数放到NoSQL缓存数据库中,减少I/O的读操作【和数据库的交互次数】 【专用的数据用特定的方式进行存储(缓存数据库/文档数据库/列式数据库)】 ### 1.2)NoSQL数据库 #### 1.2.1)NoSQL数据库概述 NoSQL(**NoSQL = Not Only SQL** ),意即“不仅仅是SQL”,泛指非关系型的数据库。 NoSQL 不依赖业务逻辑方式存储【非关系型数据库】,而以简单的key-value模式存储,因此大大的增加了数据库的扩展能力。 - 不遵循SQL标准 - 不支持ACID【原子性(Atomic)一致性(Consistency)隔离性(Isolation) 持久性(Durability)】 - 远超于SQL的性能 **NoSQL适用场景** - 对数据高并发的读写 - 海量数据的读写 - 对数据高可扩展性的 **NoSQL不适用场景** - 需要事务支持 - 基于sql的结构化查询存储,处理复杂的关系,需要即席查询 - 【用不着sql的和用了sql也不行的情况,优先考虑NoSql】 **常见的NoSQL** | 名称 | 特点 | | -------- | :----------------------------------------------------------- | | Memcache | 很早出现的NoSql数据库
数据都在内存中,一般不持久化
支持简单的key-value模式,支持类型单一
一般是作为缓存数据库辅助持久化的数据库 | | MongoDB | 高性能、开源、模式自由(schema free)的文档型数据库
数据都在内存中, 如果内存不足,把不常用的数据保存到硬盘
虽然是key-value模式,但是对value(尤其是json)提供了丰富的查询功能
支持二进制数据及大型对象
可以根据数据的特点替代RDBMS ,成为独立的数据库。或者配合RDBMS,存储特定的数据 | | Redis | 几乎覆盖了Memcached的绝大部分功能
数据都在内存中,支持持久化,主要用作备份恢复
除了支持简单的key-value模式,还支持多种数据结构的存储,比如 list、set、hash、zset等
一般是作为缓存数据库辅助持久化的数据库 | ### 1.3)行式存储数据库(大数据时代) #### 1.3.1)行式数据库 ![输入图片说明](img/05.jpg) 将每行作为一部分进行存储 优点:查询id为3的人员信息——效率高 缺点:查询年龄的平均数——效率不高 #### 1.3.2)列式数据库 ![输入图片说明](img/06.jpg) 将每列作为一部分进行存储 优点:查询年龄的平均数——效率高 缺点:查询id为3的人员信息——效率不高 #### 1.3.3)Hbase HBase是Hadoop项目中的数据库,它用于需要对大量的数据进行随机、实时的读写操作的场景中。 HBase的目标就是处理数据量非常庞大的表,可以用普通的计算机处理超过10亿行数据,还可处理有数百万列元素的数据表。 ### 1.4)图关系型数据库 主要应用:社会关系,公共交通网络,地图及网络拓谱(n*(n-1)/2) ![输入图片说明](img/07.jpg) ## 二)Redis概述和安装 ### 2.1)Redis概述 Redis是一个开源的key-value存储系统: - Redis支持存储的value类型包括:string(字符串)、list(链表)、set(集合)、zset(sorted set --有序集合)和hash(哈希类型);这些数据类型都支持push/pop、add/remove及取交集并集和差集及更丰富的操作,而且这些操作都是原子性的;在此基础上,Redis还支持各种不同方式的排序; - Redis为了保证效率,数据都是缓存在内存中;但会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件,并且在此基础上实现了master-slave(主从)同步。 #### 2.1.1)应用场景 ##### 2.1.1.1)配合关系型数据库做高速缓存 - 高频次,热门访问的数据,降低数据库IO - 分布式架构,做session共享 ##### 2.1.1.2)多样的数据结构存储持久化数据 ![输入图片说明](img/08.jpg) ### 2.2)Redis安装 Redis官网:http://redis.io Redis中文官网:http://redis.cn/ 如下图,进行下载: ![输入图片说明](img/09.jpg) 上传至Linux系统中 #### 2.2.1)安装步骤 准备工作:下载安装最新版的gcc编译器 进入Linux系统的Root用户,安装gcc 编译环境 ``` yum install gcc ``` 安装完成后输入下列命令进行检验 ``` gcc --version ``` 解压 redis压缩包 ``` tar -zxvf redis-6.2.6.tar.gz ``` 进入解压后的 redis-6.2.6文件,输入 make 命令进行编译 当看到 'make test' 后,再执行命令: ``` make install ``` 成功安装后,在 /usr/local/bin 目录下可以看到 Redis 的相关服务 ![输入图片说明](img/10.jpg) 相应模块用途如下: - redis-benchmark:性能测试工具,可以在自己环境运行,看看自己服务器性能如何 - redis-check-aof:修复有问题的AOF文件,rdb和aof后面讲 - redis-check-dump:修复有问题的dump.rdb文件 - redis-sentinel:Redis集群使用 - redis-server:Redis服务器启动命令 - redis-cli:客户端,操作入口 #### 2.2.2)前台启动(不推荐) 前台启动,命令行窗口不能关闭,否则服务器停止,命令启动 ``` redis-server ``` ![输入图片说明](img/11.jpg) #### 2.2.3)后台启动(推荐) 修改redis目录下的配置文件 redis.conf,将daemonize no改成yes,如下图: ![输入图片说明](img/12.jpg) 进入 /usr/local/bin 目录下,执行命令即可启动 redis 服务 ``` redis-server /root/redis/redis-6.2.6/redis.conf ``` 启动及验证如下图: ![输入图片说明](img/13.jpg) #### 2.2.4)Redis关闭 单实例关闭: ``` redis-cli shutdown ``` 也可以进入终端后再关闭,如下图: ![输入图片说明](img/14.jpg) 也可以直接根据进程号,kill -9 + pid号 #### 2.2.5)Redis介绍相关知识 - 默认16个数据库,类似数组下标从0开始,初始默认使用0号库 - 使用命令 select 来切换数据库。如: select 8 - 统一密码管理,所有库同样密码 - dbsize查看当前数据库的key的数量 - flushdb清空当前库 - flushall通杀全部库 ##### 2.2.5.1)多路复用 指使用一个线程来检查多个文件描述符(Socket)的就绪状态,比如调用select和poll函数,传入多个文件描述符,如果有一个文件描述符就绪,则返回,否则阻塞直到超时。得到就绪状态后进行真正的操作可以在同一个线程里执行,也可以启动线程执行(比如使用线程池) **串行 vs 多线程+锁(memcached) vs 单线程+多路IO复用(Redis)** (与Memcache三点不同: Redis 支持多数据类型,支持持久化,单线程+多路IO复用) 单线程+多路IO复用(Redis)说明: ![输入图片说明](img/15.jpg) 买票的人在不确定黄牛是否可以买到票时,无需等待,继续做其他事,直到黄牛买到票后返回给他,体现了多路IO复用的思路,而黄牛与火车站是一对一的关系,体现了单线程 ## 三)Redis常用五大数据类型 redis常见数据类型操作命令: http://www.redis.cn/commands.html ### 3.1)Redis键(key)【不属于数据类型】 登录Linux系统中 /usr/local/bin 目录下的 redis-cli 客户端 set key value : 往Redis中插入键(key)形式的数据 ``` 127.0.0.1:6379> set k1 luck OK 127.0.0.1:6379> set k2 luck2 OK 127.0.0.1:6379> set k3 luck3 OK ``` keys *:查看当前库所有key (匹配:keys *1) ``` 127.0.0.1:6379> keys * 1) "k2" 2) "k1" 3) "k3" ``` exists key:判断某个key是否存在 ``` 127.0.0.1:6379> exists k1 (integer) 1 127.0.0.1:6379> exists k4 (integer) 0 ``` type key :查看你的key是什么类型 ``` 127.0.0.1:6379> type k2 string ``` del key:删除指定的key数据 ``` 127.0.0.1:6379> del k3 (integer) 1 127.0.0.1:6379> keys * 1) "k2" ``` unlink key :根据value选择非阻塞删除,仅将keys从keyspace元数据中删除,真正的删除会在后续异步操作【演示效果相同,但会之后在内部删除,并不是当时就删了】 ``` 127.0.0.1:6379> unlink k2 (integer) 1 127.0.0.1:6379> keys * 1) "k1" ``` expire key 10:10秒钟:为给定的key设置过期时间 ``` 127.0.0.1:6379> expire k1 10 (integer) 1 ``` ttl key:查看还有多少秒过期,-1表示永不过期,-2表示已过期 ,已过期的数据就查询不到了 ``` 127.0.0.1:6379> ttl k1 (integer) 4 127.0.0.1:6379> ttl k1 (integer) -2 127.0.0.1:6379> keys * (empty array) ``` select:命令切换数据库 ,默认是 0 号库 ``` 127.0.0.1:6379> select 1 OK 127.0.0.1:6379[1]> select 10 OK 127.0.0.1:6379[10]> select 0 OK ``` dbsize:查看当前数据库的key的数量 ``` 127.0.0.1:6379> set k1 luck OK 127.0.0.1:6379> dbsize (integer) 1 ``` flushdb:清空当前库 ``` 127.0.0.1:6379> flushdb OK 127.0.0.1:6379> keys * (empty array) ``` flushall:通杀全部库 ``` 127.0.0.1:6379> flushall OK 127.0.0.1:6379> keys * (empty array) ``` ### 3.2)Redis字符串(String) #### 3.2.1)简介 String是Redis最基本的类型,可以理解成与Memcached一模一样的类型,一个key对应一个value; String类型是二进制安全的;意味着Redis的string可以包含任何数据,比如jpg图片或者序列化的对象; String类型是Redis最基本的数据类型,一个Redis中字符串value最多可以是512M #### 3.2.2)常用命令 set :添加键值对 *NX:当数据库中key不存在时,可以将key-value添加数据库 *XX:当数据库中key存在时,可以将key-value添加数据库,与NX参数互斥 *EX:key的超时秒数 *PX:key的超时毫秒数,与EX互斥 ``` 127.0.0.1:6379> set k1 s1 OK 127.0.0.1:6379> set k2 s2 OK 127.0.0.1:6379> keys * 1) "k2" 2) "k1" ``` get :查询对应键值【key值相同的再次赋值会覆盖原值】 ``` 127.0.0.1:6379> get k1 "s1" 127.0.0.1:6379> set k1 s11 OK 127.0.0.1:6379> get k1 "s11" ``` append 将给定的 追加到原值的末尾 ``` 127.0.0.1:6379> append k1 +1 (integer) 5 127.0.0.1:6379> get k1 "s11+1" ``` strlen :获得值的长度 ``` 127.0.0.1:6379> strlen k1 (integer) 5 ``` setnx :只有在 key 不存在时 设置 key 的值【key值不存在时才可以赋值成功】 ``` 127.0.0.1:6379> setnx k1 s12 (integer) 0 127.0.0.1:6379> get k1 "s11+1" 127.0.0.1:6379> setnx k3 s3 (integer) 1 127.0.0.1:6379> get k3 "s3" ``` incr :将 key 中储存的数字值增1【只能对数字值操作,如果为空,新增值为1】 ``` 127.0.0.1:6379> set k4 4 OK 127.0.0.1:6379> get k4 "4" 127.0.0.1:6379> incr k4 (integer) 5 127.0.0.1:6379> get k4 "5" 127.0.0.1:6379> incr k5 (integer) 1 127.0.0.1:6379> get k5 "1" ``` decr :将 key 中储存的数字值减1,只能对数字值操作,如果为空,新增值为-1 ``` 127.0.0.1:6379> decr k4 (integer) 4 127.0.0.1:6379> get k4 "4" 127.0.0.1:6379> decr k6 (integer) -1 127.0.0.1:6379> get k6 "-1" ``` incrby / decrby <步长> :将 key 中储存的数字值增减。自定义步长 ``` 127.0.0.1:6379> get k4 "4" 127.0.0.1:6379> incrby k4 2 (integer) 6 127.0.0.1:6379> get k4 "6" 127.0.0.1:6379> decrby k4 3 (integer) 3 127.0.0.1:6379> get k4 "3" ``` mset ..... :同时设置一个或多个 key-value对 ``` 127.0.0.1:6379> flushdb OK 127.0.0.1:6379> keys * (empty array) 127.0.0.1:6379> mset k1 s1 k2 s2 k3 s3 OK 127.0.0.1:6379> keys * 1) "k2" 2) "k1" 3) "k3" ``` mget ..... :同时获取一个或多个 value ``` 127.0.0.1:6379> mget k1 k2 k3 1) "s1" 2) "s2" 3) "s3" ``` msetnx ..... :同时设置一个或多个 key-value 对,当且仅当所有给定 key 都不存在【原子性,有一个失败则都失败】 ``` 127.0.0.1:6379> msetnx k11 s11 k12 s12 k3 s3 (integer) 0 127.0.0.1:6379> keys * 1) "k2" 2) "k1" 3) "k3" 127.0.0.1:6379> msetnx k11 s11 k12 s12 k13 s13 (integer) 1 127.0.0.1:6379> keys * 1) "k2" 2) "k1" 3) "k13" 4) "k3" 5) "k12" 6) "k11" ``` getrange <起始位置><结束位置> :获得值的范围,类似java中的substring,前包,后包 ``` 127.0.0.1:6379> set name luck OK 127.0.0.1:6379> getrange name 1 3 "uck" ``` setrange <起始位置> :用 覆写所储存的字符串值,从<起始位置>开始(索引从0开始); ``` 127.0.0.1:6379> setrange name 3 add (integer) 6 127.0.0.1:6379> get name "lucadd" ``` setex <过期时间> :设置键值的同时,设置过期时间,单位秒; ``` 127.0.0.1:6379> setex age 10 age1 OK 127.0.0.1:6379> ttl age (integer) 4 127.0.0.1:6379> ttl age (integer) -2 127.0.0.1:6379> get age (nil) ``` getset :以新换旧,设置了新值同时获得旧值。 ``` 127.0.0.1:6379> get name "lucadd" 127.0.0.1:6379> getset name luck "lucadd" 127.0.0.1:6379> get name "luck" ``` #### 3.2.3)原子性 incr key —— 对存储在指定 key 的数值执行原子的 +1 操作 原子性:指不会被线程调度机制打断的操作;这种操作一旦开始,就一直运行到结束,中间不会有任何 context switch (切换到另一个线程) (1)在单线程中, 能够在单条指令中完成的操作都可以认为是"原子操作",因为中断只能发生于指令之间; (2)在多线程中,不能被其它进程(线程)打断的操作就叫原子操作。 Redis单命令的原子性主要得益于Redis的单线程。 案例如下图: ![输入图片说明](img/16.jpg) #### 3.2.4)String的数据结构 String的数据结构为**简单动态字符串**(Simple Dynamic String,缩写SDS)。是可以修改的字符串,内部结构实现上类似于Java的ArrayList,采用预分配冗余空间的方式来减少内存的频繁分配。 ![输入图片说明](img/17.jpg) 如图中所示,内部为当前字符串实际分配的空间capacity一般要高于实际字符串长度len。当字符串长度小于1M时,扩容都是加倍现有的空间,如果超过1M,扩容时一次只会多扩1M的空间。需要注意的是字符串最大长度为512M。 ### 3.3)Redis列表(List) #### 3.3.1)简介 Redis 列表【单键多值】是简单的字符串列表,按照插入顺序排序; 可以添加一个元素到列表的头部(左边)或者尾部(右边)''它的底层实际是个双向链表,对两端的操作性能很高,通过索引下标的操作中间的节点性能会较差。 ![输入图片说明](img/18.jpg) #### 3.3.2)常用命令 lpush/rpush .... :从左边/右边插入一个或多个值 ``` 127.0.0.1:6379> lpush k1 v1 v2 v3 (integer) 3 127.0.0.1:6379> lrange k1 0 -1 1) "v3" 2) "v2" 3) "v1" 127.0.0.1:6379> rpush k2 v1 v2 v3 (integer) 3 127.0.0.1:6379> lrange k2 0 -1 1) "v1" 2) "v2" 3) "v3" ``` 数据插入顺序如下: | k1【左插入】 | v3 | v2 | v1 | | ------------ | ---- | ---- | ---- | | k2【右插入】 | v1 | v2 | v3 | lpop/rpop :从左边/右边吐出一个值。值在键在,值光键亡 ```shell 127.0.0.1:6379> lpop k1 "v3" 127.0.0.1:6379> rpop k2 "v3" 127.0.0.1:6379> keys * 1) "k2" 2) "k1" 127.0.0.1:6379> rpop k2 "v2" 127.0.0.1:6379> rpop k2 "v1" 127.0.0.1:6379> keys * 1) "k1" ``` rpoplpush :从列表右边吐出一个值,插到列表左边 ```sh 127.0.0.1:6379> keys * 1) "k1" 127.0.0.1:6379> rpush k2 v11 v12 v13 (integer) 3 127.0.0.1:6379> lrange k1 0 -1 1) "v2" 2) "v1" 127.0.0.1:6379> lrange k2 0 -1 1) "v11" 2) "v12" 3) "v13" 127.0.0.1:6379> rpoplpush k1 k2 "v1" 127.0.0.1:6379> lrange k2 0 -1 1) "v1" 2) "v11" 3) "v12" 4) "v13" ``` lrange :按照索引下标获得元素(从左到右),lrange mylist 0 -1 0左边第一个,-1右边第一个,(0-1表示获取所有) ```shell 127.0.0.1:6379> lrange k2 0 -1 1) "v1" 2) "v11" 3) "v12" 4) "v13" ``` lindex :按照索引下标获得元素(从左到右) ```shell 127.0.0.1:6379> lindex k2 0 "v1" 127.0.0.1:6379> lindex k2 2 "v12" ``` llen :获得列表长度 ```shell 127.0.0.1:6379> llen k2 (integer) 4 ``` linsert before :在的后面插入插入值 ```shell 127.0.0.1:6379> linsert k2 before "v11" "newv11" (integer) 5 127.0.0.1:6379> lrange k2 0 -1 1) "v1" 2) "newv11" 3) "v11" 4) "v12" 5) "v13" 127.0.0.1:6379> linsert k2 after "v11" "afterv11" (integer) 6 127.0.0.1:6379> lrange k2 0 -1 1) "v1" 2) "newv11" 3) "v11" 4) "afterv11" 5) "v12" 6) "v13" ``` lrem :从左边删除n个value(从左到右) ```shell 127.0.0.1:6379> lrange k2 0 -1 1) "v1" 2) "newv11" 3) "v11" 4) "afterv11" 5) "v12" 6) "v13" 127.0.0.1:6379> lrem k2 2 "newv11" (integer) 1 127.0.0.1:6379> lrange k2 0 -1 1) "v1" 2) "v11" 3) "afterv11" 4) "v12" 5) "v13" ``` lset :将列表key下标为index的值替换成value ```shell 127.0.0.1:6379> lset k2 2 "newv11" OK 127.0.0.1:6379> lrange k2 0 -1 1) "v1" 2) "v11" 3) "newv11" 4) "v12" 5) "v13" ``` #### 3.3.3)List的数据结构 List的数据结构为快速链表quickList。 - 在列表元素较少的情况下会使用一块连续的内存存储,这个结构是ziplist,也即是压缩列表;它将所有的元素紧挨着一起存储,分配的是一块连续的内存; - 当数据量比较多的时候才会改成quicklist;因为普通的链表需要的附加指针空间太大,会比较浪费空间。比如这个列表里存的只是int类型的数据,结构上还需要两个额外的指针prev和next。 ![输入图片说明](img/19.jpg) Redis将链表和ziplist结合起来组成了quicklist;也就是将多个ziplist使用双向指针串起来使用,这样既满足了快速的插入删除性能,又不会出现太大的空间冗余。 ### 3.4)Redis集合(Set) #### 3.4.1)简介 Redis set 对外提供的功能与list类似是一个列表的功能,特殊之处在于set是可以自动排重的,当你需要存储一个列表数据,又不希望出现重复数据时,set是一个很好的选择,并且set提供了判断某个成员是否在一个set集合内的重要接口,这个也是list所不能提供的。 Redis的Set是string类型的无序集合。它底层其实是一个value为null的hash表,所以添加,删除,查找的复杂度都是O(1)【一个算法,随着数据的增加,执行时间的长短,如果是O(1),数据增加,查找数据的时间不变】 #### 3.4.2)常用命令 sadd ..... :将一个或多个 member 元素加入到集合 key 中,已经存在的 member 元素将被忽略 ``` 127.0.0.1:6379> sadd k1 v1 v2 v3 (integer) 3 ``` smembers :取出该集合的所有值 ``` 127.0.0.1:6379> smembers k1 1) "v1" 2) "v3" 3) "v2" ``` sismember :判断集合是否为含有该值,有1,没有0 ``` 127.0.0.1:6379> sismember k1 v1 (integer) 1 127.0.0.1:6379> sismember k1 v4 (integer) 0 ``` scard:返回该集合的元素个数 ``` 127.0.0.1:6379> scard k1 (integer) 3 ``` srem .... :删除集合中的某个元素 ``` 127.0.0.1:6379> srem k1 v1 (integer) 1 127.0.0.1:6379> smembers k1 1) "v3" 2) "v2" ``` spop :随机从该集合中吐出一个值,会将该值删除,当 Set 中没有值时,会删除该 Set ``` 127.0.0.1:6379> sadd k2 v1 v2 v3 (integer) 3 127.0.0.1:6379> smembers k2 1) "v1" 2) "v3" 3) "v2" 127.0.0.1:6379> spop k2 "v1" 127.0.0.1:6379> spop k2 "v3" 127.0.0.1:6379> spop k2 "v2" 127.0.0.1:6379> keys * 1) "k1" ``` srandmember :随机从该集合中取出n个值。不会从集合中删除 ``` 127.0.0.1:6379> srandmember k1 "v3" 127.0.0.1:6379> srandmember k1 "v2" 127.0.0.1:6379> smembers k1 1) "v3" 2) "v2" ``` smove value:把集合中一个值从一个集合移动到另一个集合 ``` 127.0.0.1:6379> sadd k1 v1 v2 v3 (integer) 3 127.0.0.1:6379> sadd k2 v11 v12 v13 (integer) 3 127.0.0.1:6379> smove k1 k2 v2 (integer) 1 127.0.0.1:6379> smembers k1 1) "v1" 2) "v3" 127.0.0.1:6379> smembers k2 1) "v12" 2) "v2" 3) "v13" 4) "v11" ``` sinter :返回两个集合的交集元素 ``` 127.0.0.1:6379> smembers k1 1) "v1" 2) "v3" 127.0.0.1:6379> sadd k3 v3 v4 v5 (integer) 3 127.0.0.1:6379> sinter k1 k3 1) "v3" ``` sunion :返回两个集合的并集元素 ``` 127.0.0.1:6379> sunion k1 k3 1) "v1" 2) "v4" 3) "v5" 4) "v3" ``` sdiff :返回两个集合的差集元素(key1中的,不包含key2中的) ``` 127.0.0.1:6379> sdiff k1 k3 1) "v1" ``` #### 3.4.3)Set的数据结构 Set数据结构是dict字典,字典是用哈希表实现的。 Java中HashSet的内部实现使用的是HashMap,只不过所有的value都指向同一个对象。 Redis的set结构也是一样,它的内部也使用hash结构,所有的value都指向同一个内部值。 ### 3.5)Redis哈希(Hash) #### 3.5.1)简介 Redis hash 是一个键值对集合: Redis hash是一个string类型的field和value的映射表,hash特别适合用于存储对象。类似Java里面的Map;用户ID为查找的key,存储的value用户对象包含姓名,年龄,生日等信息,如果用普通的key/value结构来存储,主要有以下2种存储方式: 方式一:将value中要存储的对象进行序列化,如转换成 JSON字符串的形式进行存储 ![输入图片说明](img/20.jpg) 缺点:每一次需要修改对象中的内容时,都要先将字符串转换为对象,修改完对象的值后再转换成JSON字符串进行存储,【先反序列化改好后再序列化回去】开销较大 方式二:将value中要存储的对象内容分开存储 ![输入图片说明](img/21.jpg) 优点:修改对象的内容可以直接进行修改,无需其他操作 缺点:每一个对象的值存储分散,当存在多个对象需要存储时,会造成数据冗余且数据混乱,难以管理 上述两种用普通的key/value结构来存储的方式均不推荐,推荐使用下面的哈希(Hash)存储 方式三:使用哈希(Hash)存储 ![输入图片说明](img/22.jpg) 通过 key(用户ID) + field(属性标签) 就可以操作对应属性数据了 优点:既不需要重复存储数据,也不会带来序列化和并发修改控制的问题 #### 3.5.2)常用命令 hset :给集合中的 键赋值 ```shell 127.0.0.1:6379> hset user:1001 id 1 (integer) 1 127.0.0.1:6379> hset user:1001 name zhangsan (integer) 1 ``` hget : 从集合取出 value ```shell 127.0.0.1:6379> hget user:1001 id "1" 127.0.0.1:6379> hget user:1001 name "zhangsan" ``` hmset ... :批量设置hash的值 ```shell 127.0.0.1:6379> hmset user:1002 id 2 name lisi age 30 OK ``` hexists :查看哈希表 key 中,给定域 field 是否存在 ```shell 127.0.0.1:6379> hexists user:1002 id (integer) 1 127.0.0.1:6379> hexists user:1002 gender (integer) 0 ``` hkeys :列出该hash集合的所有field ```shell 127.0.0.1:6379> hkeys user:1002 1) "id" 2) "name" 3) "age" ``` hvals :列出该hash集合的所有value ```shell 127.0.0.1:6379> hvals user:1002 1) "2" 2) "lisi" 3) "30" ``` hincrby :为哈希表 key 中的域 field 的值加上增量 1 -1 ```shell 127.0.0.1:6379> hincrby user:1002 age 2 (integer) 32 ``` hsetnx :将哈希表 key 中的域 field 的值设置为 value ,当且仅当域 field 不存在 ```shell 127.0.0.1:6379> hsetnx user:1002 age 2 (integer) 0 127.0.0.1:6379> hsetnx user:1002 gender 1 (integer) 1 127.0.0.1:6379> hvals user:1002 1) "2" 2) "lisi" 3) "32" 4) "1" ``` #### 3.5.3)Hash的数据结构 Hash类型对应的数据结构是两种:ziplist(压缩列表),hashtable(哈希表)。 当field-value长度较短且个数较少时,使用ziplist,否则使用hashtable。 ### 3.6)Redis有序集合Zset(sorted set) #### 3.6.1) 简介 Redis有序集合zset与普通集合set非常相似,是一个没有重复元素的字符串集合。 不同之处是有序集合的每个成员都关联了一个评分(score),这个评分(score)被用来按照从最低分到最高分的方式排序集合中的成员。集合的成员是唯一的,但是评分可以是重复了 。 因为元素是有序的, 所以可以很快的根据评分(score)或者次序(position)来获取一个范围的元素。 访问有序集合的中间元素也是非常快的,因此能够使用有序集合作为**一个没有重复成员的智能列表**。 #### 3.6.2)常用命令 zadd … :将一个或多个 member 元素及其 score 值加入到有序集 key 当中 ``` 127.0.0.1:6379> zadd topn 200 java 300 c++ 400 mysql 500 php (integer) 4 ``` zrange [WITHSCORES] :返回有序集 key 中,下标在之间的元素 带WITHSCORES,可以让分数一起和值返回到结果集【从小到大排序】 ``` 127.0.0.1:6379> zrange topn 0 -1 1) "java" 2) "c++" 3) "mysql" 4) "php" ``` zrangebyscore key minmax [withscores] [limit offset count] :返回有序集 key 中,所有 score 值介于 min 和 max 之间(包括等于 min 或 max )的成员。有序集成员按 score 值递增(从小到大)次序排列 ``` 127.0.0.1:6379> zrangebyscore topn 300 500 1) "c++" 2) "mysql" 3) "php" 127.0.0.1:6379> zrangebyscore topn 300 500 withscores 1) "c++" 2) "300" 3) "mysql" 4) "400" 5) "php" 6) "500" ``` zrevrangebyscore key maxmin [withscores] [limit offset count] 同上,改为从大到小排列 ``` 127.0.0.1:6379> zrevrangebyscore topn 500 200 1) "php" 2) "mysql" 3) "c++" 4) "java" 127.0.0.1:6379> zrevrangebyscore topn 500 200 withscores 1) "php" 2) "500" 3) "mysql" 4) "400" 5) "c++" 6) "300" 7) "java" 8) "200" ``` zincrby :为元素的score加上增量 ``` 127.0.0.1:6379> zincrby topn 50 java "250" ``` zrem :删除该集合下,指定值的元素 ``` 127.0.0.1:6379> zrange topn 0 -1 1) "java" 2) "c++" 3) "mysql" 4) "php" 127.0.0.1:6379> zrem topn php (integer) 1 127.0.0.1:6379> zrange topn 0 -1 1) "java" 2) "c++" 3) "mysql" ``` zcount :统计该集合,分数区间内的元素个数 ``` 127.0.0.1:6379> zcount topn 200 300 (integer) 2 ``` zrank :返回该值在集合中的排名,从0开始 ``` 127.0.0.1:6379> zrange topn 0 -1 1) "java" 2) "c++" 3) "mysql" 127.0.0.1:6379> zrank topn java (integer) 0 127.0.0.1:6379> zrank topn mysql (integer) 2 ``` #### 3.6.3)Zset的数据结构 SortedSet(Zset)是Redis提供的一个非常特别的数据结构,一方面它等价于Java的数据结构Map,可以给每一个元素value赋予一个权重score,另一方面它又类似于TreeSet,内部的元素会按照权重score进行排序,可以得到每个元素的名次,还可以通过score的范围来获取元素的列表。 zset底层使用了两个数据结构 (1)hash,hash的作用就是关联元素value和权重score,保障元素value的唯一性,可以通过元素value找到相应的score值。 (2)跳跃表,跳跃表的目的在于给元素value排序,根据score的范围获取元素列表。 ##### 3.6.3.1)跳跃表(跳表)简介 有序集合在生活中比较常见,例如根据成绩对学生排名,根据得分对玩家排名等。 对于有序集合的底层实现,可以用数组、平衡树、链表等: - 数组不便元素的插入、删除; - 平衡树或红黑树虽然效率高但结构复杂; - 链表查询需要遍历所有效率低; Redis采用的是跳跃表。跳跃表效率堪比红黑树,实现远比红黑树简单。 ##### 3.6.3.2)跳跃表(跳表)实例 ​ 对比有序链表和跳跃表,从链表中查询出51 1)有序链表 ![输入图片说明](img/23.jpg) 要查找值为51的元素,需要从第一个元素开始依次查找、比较才能找到。共需要6次比较 2)跳跃表 ![输入图片说明](img/24.jpg) 从第2层开始,1节点比51节点小,向后比较; 21节点比51节点小,继续向后比较,后面就是NULL了,所以从21节点向下到第1层; 在第1层,41节点比51节点小,继续向后,61节点比51节点大,所以从41向下; 在第0层,51节点为要查找的节点,节点被找到,共查找4次。 从此可以看出跳跃表比有序链表效率要高 ## 四)Redis配置文件详解 ### 4.1)Units单位 配置大小单位,开头定义了一些基本的度量单位,只支持bytes,不支持bit,对大小写不敏感 ``` # Redis configuration file example. # # Note that in order to read the configuration file, Redis must be # started with the file path as first argument: # # ./redis-server /path/to/redis.conf # Note on units: when memory size is needed, it is possible to specify # it in the usual form of 1k 5GB 4M and so forth: # # 1k => 1000 bytes # 1kb => 1024 bytes # 1m => 1000000 bytes # 1mb => 1024*1024 bytes # 1g => 1000000000 bytes # 1gb => 1024*1024*1024 bytes # # units are case insensitive so 1GB 1Gb 1gB are all the same. ``` ### 4.2)INCLUDES包含 类似jsp中的include,多实例的情况可以把公用的配置文件提取出来 ``` ################################## INCLUDES ################################### # Include one or more other config files here. This is useful if you # have a standard template that goes to all Redis servers but also need # to customize a few per-server settings. Include files can include # other files, so use this wisely. # # Note that option "include" won't be rewritten by command "CONFIG REWRITE" # from admin or Redis Sentinel. Since Redis always uses the last processed # line as value of a configuration directive, you'd better put includes # at the beginning of this file to avoid overwriting config change at runtime. # # If instead you are interested in using includes to override configuration # options, it is better to use include as the last line. # # include /path/to/local.conf # include /path/to/other.conf ``` ### 4.3)网络相关配置 #### 4.3.1)bind 默认情况bind=127.0.0.1,只能接受本机的访问请求,不写的情况下,无限制接受任何ip地址的访问,为了能够让除本机的其余服务器也能远程访问,将 bind 127.0.0.1 -::1注释掉 ``` # IF YOU ARE SURE YOU WANT YOUR INSTANCE TO LISTEN TO ALL THE INTERFACES # JUST COMMENT OUT THE FOLLOWING LINE. # ~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~ #bind 127.0.0.1 -::1 ``` #### 4.3.2)protected-mode 为了能够让除本机的其余服务器也能远程访问,将 protected-mode yes 修改为 protected-mode no ``` # Protected mode is a layer of security protection, in order to avoid that # Redis instances left open on the internet are accessed and exploited. # # When protected mode is on and if: # # 1) The server is not binding explicitly to a set of addresses using the # "bind" directive. # 2) No password is configured. # # The server only accepts connections from clients connecting from the # IPv4 and IPv6 loopback addresses 127.0.0.1 and ::1, and from Unix domain # sockets. # # By default protected mode is enabled. You should disable it only if # you are sure you want clients from other hosts to connect to Redis # even if no authentication is configured, nor a specific set of interfaces # are explicitly listed using the "bind" directive. protected-mode no ``` #### 4.3.3)Port 端口号,默认 6379 ``` # Accept connections on the specified port, default is 6379 (IANA #815344). # If port 0 is specified Redis will not listen on a TCP socket. port 6379 ``` #### 4.3.4)tcp-backlog 设置tcp的backlog,backlog其实是一个连接队列,backlog队列总和=未完成三次握手队列 + 已经完成三次握手队列。在高并发环境下需要一个高backlog值来避免慢客户端连接问题。 注意Linux内核会将这个值减小到/proc/sys/net/core/somaxconn的值(128),所以需要确认增大/proc/sys/net/core/somaxconn和/proc/sys/net/ipv4/tcp_max_syn_backlog(128)两个值来达到想要的效果 ``` # TCP listen() backlog. # # In high requests-per-second environments you need a high backlog in order # to avoid slow clients connection issues. Note that the Linux kernel # will silently truncate it to the value of /proc/sys/net/core/somaxconn so # make sure to raise both the value of somaxconn and tcp_max_syn_backlog # in order to get the desired effect. tcp-backlog 511 ``` #### 4.3.5)timeout 一个空闲的客户端维持多少秒会关闭,0表示关闭该功能。即永不关闭。 ``` # Unix socket. # # Specify the path for the Unix socket that will be used to listen for # incoming connections. There is no default, so Redis will not listen # on a unix socket when not specified. # # unixsocket /run/redis.sock # unixsocketperm 700 # Close the connection after a client is idle for N seconds (0 to disable) timeout 0 ``` #### 4.3.6)tcp-keepalive 对访问客户端的一种心跳检测,每个n秒检测一次。如果存活则继续执行服务,不过不存活则断开连接; 单位为秒,如果设置为0,则不会进行Keepalive检测,建议设置成60 ``` # TCP keepalive. # # If non-zero, use SO_KEEPALIVE to send TCP ACKs to clients in absence # of communication. This is useful for two reasons: # # 1) Detect dead peers. # 2) Force network equipment in the middle to consider the connection to be # alive. # # On Linux, the specified value (in seconds) is the period used to send ACKs. # Note that to close the connection the double of the time is needed. # On other kernels the period depends on the kernel configuration. # # A reasonable value for this option is 300 seconds, which is the new # Redis default starting with Redis 3.2.1. tcp-keepalive 300 ``` ### 4.4)GENERAL通用 #### 4.4.1)daemonize 是否为后台进程,设置为yes,守护进程,后台启动 ``` ################################# GENERAL ##################################### # By default Redis does not run as a daemon. Use 'yes' if you need it. # Note that Redis will write a pid file in /var/run/redis.pid when daemonized. # When Redis is supervised by upstart or systemd, this parameter has no impact. daemonize yes ``` #### 4.4.2)pidfile 存放pid文件的位置,每个实例会产生一个不同的pid文件 ``` # If a pid file is specified, Redis writes it where specified at startup # and removes it at exit. # # When the server runs non daemonized, no pid file is created if none is # specified in the configuration. When the server is daemonized, the pid file # is used even if not specified, defaulting to "/var/run/redis.pid". # # Creating a pid file is best effort: if Redis is not able to create it # nothing bad happens, the server will start and run normally. # # Note that on modern Linux systems "/run/redis.pid" is more conforming # and should be used instead. pidfile /var/run/redis_6379.pid ``` #### 4.4.3)loglevel 指定日志记录级别,Redis总共支持四个级别:debug、verbose、notice、warning,默认为notice; 四个级别根据使用阶段来选择,生产环境选择notice 或者warning ``` # Specify the server verbosity level. # This can be one of: # debug (a lot of information, useful for development/testing) # verbose (many rarely useful info, but not a mess like the debug level) # notice (moderately verbose, what you want in production probably) # warning (only very important / critical messages are logged) loglevel notice ``` #### 4.4.4)logfile 日志文件名称 ``` # Specify the log file name. Also the empty string can be used to force # Redis to log on the standard output. Note that if you use standard # output for logging but daemonize, logs will be sent to /dev/null logfile "" ``` 4.4.5)databases 16 设定库的数量 默认16,默认数据库为0,可以使用SELECT 命令在连接上指定数据库id ``` # To disable the fast memory check that's run as part of the crash log, which # will possibly let redis terminate sooner, uncomment the following: # # crash-memcheck-enabled no # Set the number of databases. The default database is DB 0, you can select # a different one on a per-connection basis using SELECT where # dbid is a number between 0 and 'databases'-1 databases 16 ``` ### 4.5)SECURITY安全 #### 4.5.1)设置密码 访问密码的查看、设置和取消,将 # requirepass foobared 的注释取消 ``` # IMPORTANT NOTE: starting with Redis 6 "requirepass" is just a compatibility # layer on top of the new ACL system. The option effect will be just setting # the password for the default user. Clients will still authenticate using # AUTH as usually, or more explicitly with AUTH default # if they follow the new protocol: both will work. # # The requirepass is not compatable with aclfile option and the ACL LOAD # command, these will cause requirepass to be ignored. # # requirepass foobared ``` 在命令中设置密码,只是临时的。重启redis服务器,密码就还原了。 永久设置,需要再配置文件中进行设置。 ![输入图片说明](img/25.jpg) ### 4.6)LIMITS限制 #### 4.6.1)maxclients - 设置redis同时可以与多少个客户端进行连接; - 默认情况下为10000个客户端; - 如果达到了此限制,redis则会拒绝新的连接请求,并且向这些连接请求方发出“max number of clients reached”以作回应 ``` # Set the max number of connected clients at the same time. By default # this limit is set to 10000 clients, however if the Redis server is not # able to configure the process file limit to allow for the specified limit # the max number of allowed clients is set to the current file limit # minus 32 (as Redis reserves a few file descriptors for internal uses). # # Once the limit is reached Redis will close all the new connections sending # an error 'max number of clients reached'. # # IMPORTANT: When Redis Cluster is used, the max number of connections is also # shared with the cluster bus: every node in the cluster will use two # connections, one incoming and another outgoing. It is important to size the # limit accordingly in case of very large clusters. # # maxclients 10000 ``` #### 4.6.2)maxmemory 建议必须设置,否则,将内存占满,造成服务器宕机 - 设置redis可以使用的内存量。一旦到达内存使用上限,redis将会试图移除内部数据,移除规则可以通过maxmemory-policy来指定。 - 如果redis无法根据移除规则来移除内存中的数据,或者设置了“不允许移除”,那么redis则会针对那些需要申请内存的指令返回错误信息,比如SET、LPUSH等。 - 但是对于无内存申请的指令,仍然会正常响应,比如GET等。如果你的redis是主redis(说明你的redis有从redis),那么在设置内存使用上限时,需要在系统中留出一些内存空间给同步队列缓存,只有在你设置的是“不移除”的情况下,才不用考虑这个因素。 ``` ############################## MEMORY MANAGEMENT ################################ # Set a memory usage limit to the specified amount of bytes. # When the memory limit is reached Redis will try to remove keys # according to the eviction policy selected (see maxmemory-policy). # # If Redis can't remove keys according to the policy, or if the policy is # set to 'noeviction', Redis will start to reply with errors to commands # that would use more memory, like SET, LPUSH, and so on, and will continue # to reply to read-only commands like GET. # # This option is usually useful when using Redis as an LRU or LFU cache, or to # set a hard memory limit for an instance (using the 'noeviction' policy). # # WARNING: If you have replicas attached to an instance with maxmemory on, # the size of the output buffers needed to feed the replicas are subtracted # from the used memory count, so that network problems / resyncs will # not trigger a loop where keys are evicted, and in turn the output # buffer of replicas is full with DELs of keys evicted triggering the deletion # of more keys, and so forth until the database is completely emptied. # # In short... if you have replicas attached it is suggested that you set a lower # limit for maxmemory so that there is some free RAM on the system for replica # output buffers (but this is not needed if the policy is 'noeviction'). # # maxmemory ``` #### 4.6.3)maxmemory-policy volatile-lru:使用LRU算法移除key,只对设置了过期时间的键;(最近最少使用) allkeys-lru:在所有集合key中,使用LRU算法移除key volatile-random:在过期集合中移除随机的key,只对设置了过期时间的键 allkeys-random:在所有集合key中,移除随机的key volatile-ttl:移除那些TTL值最小的key,即那些最近要过期的key noeviction:不进行移除。针对写操作,只是返回错误信息 ``` # MAXMEMORY POLICY: how Redis will select what to remove when maxmemory # is reached. You can select one from the following behaviors: # # volatile-lru -> Evict using approximated LRU, only keys with an expire set. # allkeys-lru -> Evict any key using approximated LRU. # volatile-lfu -> Evict using approximated LFU, only keys with an expire set. # allkeys-lfu -> Evict any key using approximated LFU. # volatile-random -> Remove a random key having an expire set. # allkeys-random -> Remove a random key, any key. # volatile-ttl -> Remove the key with the nearest expire time (minor TTL) # noeviction -> Don't evict anything, just return an error on write operations. ``` #### 4.6.3)maxmemory-samples - 设置样本数量,LRU算法和最小TTL算法都并非是精确的算法,而是估算值,所以你可以设置样本的大小,redis默认会检查这么多个key并选择其中LRU的那个; - 一般设置3到7的数字,数值越小样本越不准确,但性能消耗越小。 ``` # LRU, LFU and minimal TTL algorithms are not precise algorithms but approximated # algorithms (in order to save memory), so you can tune it for speed or # accuracy. By default Redis will check five keys and pick the one that was # used least recently, you can change the sample size using the following # configuration directive. # # The default of 5 produces good enough results. 10 Approximates very closely # true LRU but costs more CPU. 3 is faster but not very accurate. # # maxmemory-samples 5 ``` ## 五)Redis的发布和订阅 ### 5.1)什么是发布和订阅 Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。 Redis 客户端可以订阅任意数量的频道。 ### 5.2)Redis的发布和订阅 1、客户端可以订阅频道如下图 ![输入图片说明](img/26.jpg) 2、当给这个频道发布消息后,消息就会发送给订阅的客户端 ![输入图片说明](img/27.jpg) ### 5.3)发布订阅命令行实现 1、 打开一个客户端订阅channel1 ``` [root@VM-20-6-centos bin]# redis-cli 127.0.0.1:6379> SUBSCRIBE channel1 ``` 2、打开另一个客户端,给channel1发布消息hello ``` [root@VM-20-6-centos bin]# redis-cli 127.0.0.1:6379> publish channel1 hello ``` 3、打开第一个客户端可以看到发送的消息 ``` 127.0.0.1:6379> SUBSCRIBE channel1 Reading messages... (press Ctrl-C to quit) 1) "subscribe" 2) "channel1" 3) (integer) 1 1) "message" 2) "channel1" 3) "hello" ``` 【发布的消息没有持久化,如果在订阅的客户端收不到hello,只能收到订阅后发布的消息】 ## 六)Redis新数据类型 ### 6.1)Bitmaps #### 6.1.1)简介 现代计算机用二进制(位) 作为信息的基础单位, 1个字节等于8位, 例如“abc”字符串是由3个字节组成, 但实际在计算机存储时将其用二进制表示, “abc”分别对应的ASCII码分别是97、 98、 99, 对应的二进制分别是01100001、 01100010和01100011,如下图: ![输入图片说明](img/28.jpg) 合理地使用操作位能够有效地提高内存使用率和开发效率。 Redis提供了Bitmaps这个“数据类型”可以实现对位的操作: - Bitmaps本身不是一种数据类型, 实际上它就是字符串(key-value),但是它可以对字符串的位进行操作。 - Bitmaps单独提供了一套命令, 所以在Redis中使用Bitmaps和使用字符串的方法不太相同。 可以把Bitmaps想象成一个以位为单位的数组, 数组的每个单元只能存储0和1, 数组的下标在Bitmaps中叫做偏移量。 ![输入图片说明](img/29.jpg) #### 6.1.2)命令 ##### 6.1.2.1)setbit 1.1)格式 setbit:设置Bitmaps中某个偏移量的值(0或1) 【*offset:偏移量从0开始】 1.2)实例 每个独立用户是否访问过网站存放在Bitmaps中, 将访问的用户记做1, 没有访问的用户记做0, 用偏移量作为用户的id。设置键的第offset个位的值(从0算起) , 假设现在有20个用户,userid=1, 6, 11, 15, 19的用户对网站进行了访问, 那么当前Bitmaps初始化结果如图: ![输入图片说明](img/30.jpg) unique:users:20210101代表2020-01-01这天的独立访问用户的Bitmaps ``` 127.0.0.1:6379> keys * (empty array) 127.0.0.1:6379> setbit users:20210101 1 1 (integer) 0 127.0.0.1:6379> setbit users:20210101 6 1 (integer) 0 127.0.0.1:6379> setbit users:20210101 11 1 (integer) 0 127.0.0.1:6379> setbit users:20210101 15 1 (integer) 0 127.0.0.1:6379> setbit users:20210101 19 1 (integer) 0 ``` 很多应用的用户id以一个指定数字(例如10000) 开头, 直接将用户id和Bitmaps的偏移量对应势必会造成一定的浪费, 通常的做法是每次做setbit操作时将用户id减去这个指定数字。 在第一次初始化Bitmaps时, 假如偏移量非常大, 那么整个初始化过程执行会比较慢, 可能会造成Redis的阻塞。 ##### 6.1.2.2)getbit 2.1)格式 getbit :获取Bitmaps中某个偏移量的值 获取键的第offset位的值(从0开始算) 2.2)实例 获取id=8的用户是否在2021-01-01这天访问过, 返回0说明没有访问过:【不存在的也返回0】 ``` 127.0.0.1:6379> getbit users:20210101 1 (integer) 1 127.0.0.1:6379> getbit users:20210101 6 (integer) 1 127.0.0.1:6379> getbit users:20210101 8 (integer) 0 ``` ##### 6.1.2.3)bitcount 统计字符串被设置为1的bit数。一般情况下,给定的整个字符串都会被进行计数,通过指定额外的 start 或 end 参数,可以让计数只在特定的位上进行。start 和 end 参数的设置,都可以使用负数值:比如 -1 表示最后一个位,而 -2 表示倒数第二个位,start、end 是指bit组的字节的下标数,二者皆包含。 3.1)格式 bitcount[start end] :统计字符串从start字节到end字节比特值为1的数量 3.2)实例 计算2021-01-01这天的独立访问用户数量,start和end代表起始和结束字节数, 下面操作计算用户id在第1个字节到第3个字节之间的独立访问用户数, 对应的用户id是11, 15, 19。 ``` 127.0.0.1:6379> bitcount users:20210101 (integer) 5 127.0.0.1:6379> bitcount users:20210101 0 -1 (integer) 5 127.0.0.1:6379> bitcount users:20210101 0 10 (integer) 5 127.0.0.1:6379> bitcount users:20210101 1 2 (integer) 3 ``` 举例: K1 【01000001 01000000 00000000 00100001】,对应【0,1,2,3】 bitcount K1 1 2 : 统计下标1、2字节组中bit=1的个数,即01000000 00000000 --》bitcount K1 1 2   --》1 bitcount K1 1 3 : 统计下标1、2字节组中bit=1的个数,即01000000 00000000 00100001 --》bitcount K1 1 3  --》3 bitcount K1 0 -2 : 统计下标0到下标倒数第2,字节组中bit=1的个数,即01000001 01000000 00000000 --》bitcount K1 0 -2  --》3 注意:redis的setbit设置或清除的是bit位置,而bitcount计算的是byte位置。 ##### 6.1.2.4)bitop 4.1)格式 bitop and(or/not/xor) [key…] bitop是一个复合操作, 它可以做多个Bitmaps的and(交集) 、 or(并集) 、 not(非) 、 xor(异或) 操作并将结果保存在destkey中。 4.2)实例 2022-04-16 日访问网站的userid=1,2,5,9 ``` 127.0.0.1:6379> setbit unique:users:20220416 1 1 (integer) 0 127.0.0.1:6379> setbit unique:users:20220416 2 1 (integer) 0 127.0.0.1:6379> setbit unique:users:20220416 5 1 (integer) 0 127.0.0.1:6379> setbit unique:users:20220416 9 1 (integer) 0 ``` 2022-04-15 日访问网站的userid=0,1,4,9。 ``` 127.0.0.1:6379> setbit unique:users:20220415 0 1 (integer) 0 127.0.0.1:6379> setbit unique:users:20220415 1 1 (integer) 0 127.0.0.1:6379> setbit unique:users:20220415 4 1 (integer) 0 127.0.0.1:6379> setbit unique:users:20220415 9 1 ``` 计算出两天都访问过网站的用户数量 ``` 127.0.0.1:6379> bitop and unique:users:and:20220416_15 unique:users:20220415 unique:users:20220416 (integer) 2 ``` 过程如下: ![输入图片说明](img/31.jpg) #### 6.1.3)Bitmaps与set对比 假设网站有1亿用户, 每天独立访问的用户有5千万, 如果每天用集合类型和Bitmaps分别存储活跃用户可以得到表: | set和Bitmaps存储一天活跃用户对比 | | | | | -------------------------------- | ------------------ | ---------------- | ---------------------- | | 数据类型 | 每个用户id占用空间 | 需要存储的用户量 | 全部内存量 | | 集合类型 | 64位 | 50000000 | 64位*50000000 = 400MB | | Bitmaps | 1位 | 100000000 | 1位*100000000 = 12.5MB | 很明显,这种情况下使用Bitmaps能节省很多的内存空间, 尤其是随着时间推移节省的内存还是非常可观的 | set和Bitmaps存储独立用户空间对比 | | | | | -------------------------------- | ------ | ------ | ----- | | 数据类型 | 一天 | 一个月 | 一年 | | 集合类型 | 400MB | 12GB | 144GB | | Bitmaps | 12.5MB | 375MB | 4.5GB | 但Bitmaps并不是万金油, 假如该网站每天的独立访问用户很少, 例如只有10万(大量的僵尸用户) , 那么两者的对比如下表所示, 很显然, 这时候使用Bitmaps就不太合适了, 因为基本上大部分位都是0。 | set和Bitmaps存储一天活跃用户对比(独立用户比较少) | | | | | -------------------------------------------------- | ------------------ | ---------------- | ---------------------- | | 数据类型 | 每个userid占用空间 | 需要存储的用户量 | 全部内存量 | | 集合类型 | 64位 | 100000 | 64位*100000 = 800KB | | Bitmaps | 1位 | 100000000 | 1位*100000000 = 12.5MB | ### 6.2)HyperLogLog #### 6.2.1)简介 在工作当中,经常会遇到与统计相关的功能需求,比如统计网站PV(PageView页面访问量),可以使用Redis的incr、incrby轻松实现。但像UV(UniqueVisitor,独立访客)、独立IP数、搜索记录数等需要去重和计数的问题如何解决? 这种求集合中不重复元素个数的问题称为基数问题, 解决基数问题有很多种方案: - 数据存储在MySQL表中,使用distinct count计算不重复个数 - 使用Redis提供的hash、set、bitmaps等数据结构来处理 以上的方案结果精确,但随着数据不断增加,导致占用空间越来越大,对于非常大的数据集是不切实际的。 能否能够降低一定的精度来平衡存储空间? Redis推出了HyperLogLog,Redis HyperLogLog 是用来做基数统计的算法,HyperLogLog 的优点是,**在输入元素的数量或者体积非常非常大时,计算基数所需的空间总是固定的、并且是很小的**。 在 Redis 里面,每个 HyperLogLog 键只需要花费 12 KB 内存,就可以计算接近 2^64 个不同元素的基数。这和计算基数时,元素越多耗费内存就越多的集合形成鲜明对比。但是,因为 HyperLogLog 只会根据输入元素来计算基数,而不会储存输入元素本身,所以 HyperLogLog 不能像集合那样,返回输入的各个元素。 什么是基数? 比如数据集 {1, 3, 5, 7, 5, 7, 8}, 那么这个数据集的基数集为 {1, 3, 5 ,7, 8}, 基数(不重复元素)为5。 基数估计就是在误差可接受的范围内,快速计算基数。 #### 6.2.2)命令 ##### 6.2.2.1)pfadd 1)格式 pfadd < element> [element ...] :添加指定元素到 HyperLogLog 中 2)实例 将所有元素添加到指定HyperLogLog数据结构中,如果执行命令后HLL估计的近似基数发生变化,则返回1,否则返回0 ``` 127.0.0.1:6379> pfadd program "java" (integer) 1 127.0.0.1:6379> pfadd program "php" (integer) 1 127.0.0.1:6379> pfadd program "java" "c++" (integer) 1 127.0.0.1:6379> pfadd program "java" (integer) 0 ``` ###### 6.2.2.2)pfcount 1)格式 pfcount [key ...] 计算HLL的近似基数,可以计算多个HLL,比如用HLL存储每天的UV,计算一周的UV可以使用7天的UV合并计算即可 2)实例 ``` 127.0.0.1:6379> pfcount program (integer) 3 ``` ###### 6.2.2.3)pfmerge 1)格式 pfmerge [sourcekey ...] :将一个或多个HLL合并后的结果存储在另一个HLL中,比如每月活跃用户可以使用每天的活跃用户来合并计算可得 2)实例 新建 k1,合并k1和program为k2 ``` 127.0.0.1:6379> pfadd k1 "a" (integer) 1 127.0.0.1:6379> pfadd k1 "b" (integer) 1 127.0.0.1:6379> pfcount k1 (integer) 2 127.0.0.1:6379> pfcount program (integer) 3 127.0.0.1:6379> pfmerge k2 k1 program OK 127.0.0.1:6379> pfcount k2 (integer) 5 ``` ### 6.3)Geospatial #### 6.3.1)简介 Redis 3.2 中增加了对GEO类型的支持。GEO,Geographic,地理信息的缩写。该类型,就是元素的2维坐标,在地图上就是经纬度。 redis基于该类型,提供了经纬度设置,查询,范围查询,距离查询,经纬度Hash等常见操作。 #### 6.3.1)命令 ##### 6.3.1.1)geoadd 1)格式 geoadd< longitude> [longitude latitude member...] :添加地理位置(经度,纬度,名称) 2)实例 ``` 127.0.0.1:6379> geoadd china:city 121.47 31.23 shanghai (integer) 1 127.0.0.1:6379> geoadd china:city 106.50 29.53 chongqing 114.05 22.52 shenzhen 116.38 39.90 beijing (integer) 3 ``` ##### 6.3.1.2)geopos 1)格式 geopos [member...] : 获得指定地区的坐标值 2)实例 ``` 127.0.0.1:6379> geopos china:city shanghai 1) 1) "121.47000163793563843" 2) "31.22999903975783553" 127.0.0.1:6379> geopos china:city beijing 1) 1) "116.38000041246414185" 2) "39.90000009167092543" ``` ##### 6.3.1.3)geodist 1)格式 geodist [m|km|ft|mi ] :获取两个位置之间的直线距离 2)实例 获取两个位置之间的直线距离 ``` 127.0.0.1:6379> geodist china:city beijing shanghai km "1068.1535" ``` ##### 6.3.1.4)georadius 1)格式 georadius< longitude>radius m|km|ft|mi : 以给定的经纬度为中心,找出某一半径内的元素 【经度 纬度 距离 单位】 2)实例 获取东经 110 北纬 30 方圆1000km以内的城市 ``` 127.0.0.1:6379> georadius china:city 110 30 1000 km 1) "chongqing" 2) "shenzhen" ``` ## 七)Jedis操作Redis ### 7.1)Jedis工程创建 #### 7.1.1)新建Maven工程 新建Maven工程——jedis_redisdemo,在POM文件中引入Jedis所需要的jar包 ``` redis.clients jedis 3.2.0 ``` 连接Redis注意事项 禁用Linux的防火墙:Linux(CentOS7)里执行命令: ``` systemctl stop/disable firewalld.service ``` redis.conf中注释掉bind 127.0.0.1 ,然后 protected-mode 设置为 no,修改端口6379为 11079 #### 7.1.2)创建测试程序 ##### 7.1.2.1) Jedis连通性测试 新建 JedisDemo1.java,编写测试代码: ```java public class JedisDemo1 { public static void main(String[] args) { //创建Jedis对象 Jedis jedis = new Jedis("82.157.183.197",11079); //测试 String value = jedis.ping(); System.out.println(value); jedis.close(); } } ``` 输出: ``` PONG ``` ##### 7.1.2.2) Jedis 操作key string测试 ```java //Jedis 操作key string @Test public void demo1() { //创建Jedis对象 Jedis jedis = new Jedis("82.157.183.197",11079); //添加 jedis.set("name","lucy"); //获取 String name = jedis.get("name"); System.out.println(name); //设置多个key-value jedis.mset("k1","v1","k2","v2"); List mget = jedis.mget("k1", "k2"); System.out.println(mget); Set keys = jedis.keys("*"); for(String key : keys) { System.out.println(key); } jedis.close(); } ``` 输出: ``` name:luck mget:[v1, v2] Redis中存在key:name Redis中存在key:k1 Redis中存在key:k2 ``` ##### 7.1.2.3) Jedis 操作List 测试 ```java //Jedis 操作list @Test public void demo2() { //创建Jedis对象 Jedis jedis = new Jedis("82.157.183.197", 11079); jedis.lpush("key1", "lucy", "mary", "jack"); List values = jedis.lrange("key1", 0, -1); System.out.println("Redis中存在List:" +values); jedis.close(); } ``` 输出: ``` Redis中存在List:[jack, mary, lucy] ``` ##### 7.1.2.4)Jedis 操作Set 测试 ``` //Jedis 操作set @Test public void demo3() { //创建Jedis对象 Jedis jedis = new Jedis("82.157.183.197", 11079); jedis.sadd("names", "lucy"); jedis.sadd("names", "mary"); Set names = jedis.smembers("names"); System.out.println("Redis中存在Set:" + names); jedis.close(); } ``` 输出: ``` Redis中存在Set:[lucy, mary] ``` ##### 7.1.2.5)Jedis 操作Hash 测试 ``` //Jedis 操作hash @Test public void demo4() { //创建Jedis对象 Jedis jedis = new Jedis("82.157.183.197", 11079); jedis.hset("users", "age", "20"); String hget = jedis.hget("users", "age"); System.out.println("Redis中存在Hash:" + hget); jedis.close(); } ``` 输出: ``` Redis中存在Hash:20 ``` 7.1.2.6)Jedis 操作Zset 测试 ``` //Jedis 操作zset @Test public void demo5() { //创建Jedis对象 Jedis jedis = new Jedis("82.157.183.197", 11079); jedis.zadd("china", 100d, "shanghai"); Set china = jedis.zrange("china", 0, -1); System.out.println("Redis中存在Zset:" + china); jedis.close(); } ``` 输出: ``` Redis中存在Zset:[shanghai] ``` ### 7.2)Jedis实例-手机验证码 #### 7.2.1)功能要求 完成一个手机验证码功能: 1、输入手机号,点击发送后随机生成6位数字码,2分钟有效 2、输入验证码,点击验证,返回成功或失败 3、每个手机号每天只能输入3次 设计分析: ![输入图片说明](img/32.jpg) 代码如下: ```java public class PhoneCode { public static void main(String[] args) { // 测试步骤1 生成 成6位数字验证码 // String code = getCode(); // System.out.println(code); // 输出:565496 //测试步骤2 模拟验证码发送 verifyCode("13678765435"); // 第一次测试输出:生成验证码 =561523 // 第二次测试输出:生成验证码 =376848 // 第三次测试输出:生成验证码 =983279 // 第四次测试输出:今天发送次数已经超过三次 //测试步骤3 模拟验证码校验 // getRedisCode("13678765435","561523"); // 第一次测试输出:成功 // getRedisCode("13678765435", "1234"); // 第二次测试输出:失败 // 过一会再次测试 第三次测试输出:验证码已过期,请重新生成成 } //步骤1 生成6位数字验证码 public static String getCode() { Random random = new Random(); String code = ""; for (int i = 0; i < 6; i++) { int rand = random.nextInt(10); code += rand; } return code; } //步骤2 每个手机每天只能发送三次,验证码放到redis中,设置过期时间120 public static void verifyCode(String phone) { //连接redis Jedis jedis = new Jedis("82.157.183.197", 11079); //拼接key //手机发送次数key String countKey = "VerifyCode" + phone + ":count"; //验证码key String codeKey = "VerifyCode" + phone + ":code"; //每个手机每天只能发送三次,发送次数为 count String count = jedis.get(countKey); if (count == null) { //没有发送次数,第一次发送 //设置发送次数是1 jedis.setex(countKey, 24 * 60 * 60, "1"); } else if (Integer.parseInt(count) <= 2) { // 发送次数为2,设置 发送次数+1 jedis.incr(countKey); } else if (Integer.parseInt(count) > 2) { //发送三次,不能再发送 System.out.println("今天发送次数已经超过三次"); jedis.close(); return; } //发送验证码放到redis里面 // 获取验证码 String vcode = getCode(); System.out.println("生成验证码 =" + vcode); // 设置过期时间120秒,即2分钟 jedis.setex(codeKey, 120, vcode); jedis.close(); } //步骤3 验证码校验 public static void getRedisCode(String phone, String code) { //从redis获取验证码 //连接redis Jedis jedis = new Jedis("82.157.183.197", 11079); //验证码key String codeKey = "VerifyCode" + phone + ":code"; String redisCode = jedis.get(codeKey); if (redisCode == null) { System.out.println("验证码已过期,请重新生成"); } else if (redisCode.equals(code)) { System.out.println("成功"); } else { System.out.println("失败"); } jedis.close(); } } ``` 第一次测试 verifyCode() 后,redis中内容如下图: ![输入图片说明](img/33.jpg) ## 八)Redis与Spring Boot整合 ### 8.1)新建SpingBoot工程——redis_springboot 直接在IDEA中创建,或者去网站 :https://start.spring.io/ 设置相关工程配置 ### 8.2)修改工程POM文件 在pom.xml文件中引入redis相关依赖 ```xml 4.0.0 org.springframework.boot spring-boot-starter-parent 2.2.1.RELEASE com.study redis_springboot 0.0.1-SNAPSHOT redis_springboot Demo project for Spring Boot 1.8 org.springframework.boot spring-boot-starter-data-redis org.apache.commons commons-pool2 2.6.0 org.springframework.boot spring-boot-starter org.springframework.boot spring-boot-starter-test test org.springframework.boot spring-boot-maven-plugin ``` ### 8.3)修改工程配置文件 application.properties添加redis配置 ```properties #Redis服务器地址 spring.redis.host=82.157.183.197 #Redis服务器连接端口 spring.redis.port=11079 #Redis数据库索引(默认为0) spring.redis.database= 0 #连接超时时间(毫秒) spring.redis.timeout=1800000 #连接池最大连接数(使用负值表示没有限制) spring.redis.lettuce.pool.max-active=20 #最大阻塞等待时间(负数表示没限制) spring.redis.lettuce.pool.max-wait=-1 #连接池中的最大空闲连接 spring.redis.lettuce.pool.max-idle=5 #连接池中的最小空闲连接 spring.redis.lettuce.pool.min-idle=0 ``` ### 8.4)添加redis配置类 工程目录下新建config文件夹,并新增redis配置类 RedisConfig.java【固定写法】 ```java @EnableCaching @Configuration public class RedisConfig extends CachingConfigurerSupport { @Bean public RedisTemplate redisTemplate(RedisConnectionFactory factory) { RedisTemplate template = new RedisTemplate<>(); RedisSerializer redisSerializer = new StringRedisSerializer(); Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class); ObjectMapper om = new ObjectMapper(); om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY); om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL); jackson2JsonRedisSerializer.setObjectMapper(om); template.setConnectionFactory(factory); //key序列化方式 template.setKeySerializer(redisSerializer); //value序列化 template.setValueSerializer(jackson2JsonRedisSerializer); //value hashmap序列化 template.setHashValueSerializer(jackson2JsonRedisSerializer); return template; } @Bean public CacheManager cacheManager(RedisConnectionFactory factory) { RedisSerializer redisSerializer = new StringRedisSerializer(); Jackson2JsonRedisSerializer jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer(Object.class); //解决查询缓存转换异常的问题 ObjectMapper om = new ObjectMapper(); om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY); om.enableDefaultTyping(ObjectMapper.DefaultTyping.NON_FINAL); jackson2JsonRedisSerializer.setObjectMapper(om); // 配置序列化(解决乱码的问题),过期时间600秒 RedisCacheConfiguration config = RedisCacheConfiguration.defaultCacheConfig() .entryTtl(Duration.ofSeconds(600)) .serializeKeysWith(RedisSerializationContext.SerializationPair.fromSerializer(redisSerializer)) .serializeValuesWith(RedisSerializationContext.SerializationPair.fromSerializer(jackson2JsonRedisSerializer)) .disableCachingNullValues(); RedisCacheManager cacheManager = RedisCacheManager.builder(factory) .cacheDefaults(config) .build(); return cacheManager; } } ``` ### 8.5)添加redis接口测试类 工程目录下新建controller文件夹,并新增redis接口测试类类 RedisTestController.java ``` @RestController @RequestMapping("/redisTest") public class RedisTestController { @Autowired private RedisTemplate redisTemplate; @GetMapping public String testRedis() { //设置值到redis redisTemplate.opsForValue().set("name","luck"); //从redis获取值 String name = (String)redisTemplate.opsForValue().get("name"); return name; } } ``` #### 8.6)测试 启动工程,浏览器访问:http://127.0.0.1:8080/redisTest 浏览器返回结果:luck 【给 Redis 赋值的内容】 ## 九)Redis6的事务操作 ### 9.1)Redis的事务定义 Redis事务是一个**单独的隔离操作**:【事务操作是相互隔离的,其他操作不能插入到当前操作中】 - 事务中的所有命令都会序列化、按顺序地执行; - 事务在执行的过程中,不会被其他客户端发送来的命令请求所打断; - 主要作用就是**串联多个命令防止别的命令插队** ### 9.2)Redis的事务操作基本命令 #### 9.2.1)事务操作的过程 1. 从输入Multi命令开始,输入的命令都会依次进入命令队列中,但不会执行; 2. 直到输入Exec后,Redis会将之前的命令队列中的命令依次执行; 3. 组队的过程中可以通过discard来放弃组队 事务操作的过程如下图: ![输入图片说明](img/34.jpg) #### 9.2.2)事务操作的实例 展示 multi 和 exec ``` tx-root-redis:0>multi "OK" tx-root-redis:0>set k1 v1 "QUEUED" tx-root-redis:0>set k2 v2 "QUEUED" tx-root-redis:0>exec 1) "OK" 2) "OK" ``` 展示 multi 和 discard ``` tx-root-redis:0>set a1 s1 "QUEUED" tx-root-redis:0>set a2 s2 "QUEUED" tx-root-redis:0>discard "OK" ``` #### 9.2.3)事务的错误处理 组队中某个命令出现了报告错误,执行时整个的所有队列都会被取消 ![输入图片说明](img/35.jpg) 案例展示: ``` tx-root-redis:0>multi "OK" tx-root-redis:0>set b1 v1 "QUEUED" tx-root-redis:0>set b2 v2 "QUEUED" tx-root-redis:0>set b3 "ERR wrong number of arguments for 'set' command" tx-root-redis:0>exec "EXECABORT Transaction discarded because of previous errors." ``` 如果执行阶段某个命令报出了错误,则只有报错的命令不会被执行,而其他的命令都会执行,不会回滚 ![输入图片说明](img/36.jpg) 案例展示: ``` tx-root-redis:0>multi "OK" tx-root-redis:0>set c1 v1 "QUEUED" tx-root-redis:0>incr c1 "QUEUED" tx-root-redis:0>set c2 v2 "QUEUED" tx-root-redis:0>exec 1) "OK" 2) "ERR value is not an integer or out of range" 3) "OK" ``` #### 9.2.4)事务冲突的问题 初始金额为:10000 三个请求: 一个请求想给金额减8000 一个请求想给金额减5000 一个请求想给金额减1000 请求过程如下图: ![输入图片说明](img/37.jpg) 没有添加事务管理导致金额出现问题,事务管理是通过给事务添加锁的机制来实现的,锁分为悲观锁和乐观锁 #### 9.2.5)事务冲突解决——悲观锁 悲观锁(Pessimistic Lock), 顾名思义,就是很悲观,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会block直到它拿到锁; 传统的关系型数据库里边就用到了很多这种锁机制,比如行锁,表锁等,读锁,写锁等,都是在做操作之前先上锁; 结合案例,悲观锁的执行流程如下图: ![输入图片说明](img/38.jpg) 每一次操作数据前先上锁,其他线程处于阻塞状态,不符合条件就不在执行 优点:可以解决上述出现的事务问题 缺点:效率低,只能单线程进行操作,不能多线程同时进行 #### 9.2.6)事务冲突解决——乐观锁 乐观锁(Optimistic Lock), 顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,可以使用版本号等机制; 乐观锁适用于多读的应用类型,这样可以提高吞吐量;【抢票场景】 Redis就是利用这种check-and-set机制实现事务的; 结合案例,乐观锁的执行流程如下图: ![输入图片说明](img/39.jpg) 每一次操作时,给要修改的字段添加版本号,所有线程都能收到该版本信息V1.0,第一个线程执行结束后,金额从 10000变成了2000,同时在更新金额时也要同步更新版本信息V1.0为V1.1,其他行程执行完成会判断当前该字段的版本信息【V1.1】是否跟数据库版本信息一致【V1.0】,不一致则不能执行该线程的修改操作 #### 9.2.7)Redis中使用乐观锁 ##### 9.2.7.1)WATCH key [key ...] 在执行multi之前,先执行watch key1 [key2],可以监视一个(或多个) key ,如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断。 案例展示:使用两个客户端分别连接Redis 客户端1 ``` 127.0.0.1:11079> get balance "100" 127.0.0.1:11079> watch balance OK 127.0.0.1:11079> multi OK 127.0.0.1:11079(TX)> incrby balance 10 QUEUED 127.0.0.1:11079(TX)> exec 1) (integer) 110 127.0.0.1:11079> get balance "110" ``` 客户端2 ``` 127.0.0.1:11079> get balance "100" 127.0.0.1:11079> watch balance OK 127.0.0.1:11079> multi OK 127.0.0.1:11079(TX)> incrby balance 20 QUEUED 127.0.0.1:11079(TX)> exec (nil) 127.0.0.1:11079> get balance "110" ``` 在客户端1对balance进行+10操作后,客户端2对balance进行+20的操作就不再生效了 ##### 9.2.7.2)unwatch 取消 WATCH 命令对所有 key 的监视 如果在执行 WATCH 命令之后,EXEC 命令或DISCARD 命令先被执行了的话,那么就不需要再执行UNWATCH了 官网文档:http://doc.redisfans.com/transaction/exec.html ##### 9.2.7)Redis事务三特性 - 单独的隔离操作 :事务中的所有命令都会序列化、按顺序地执行,事务在执行的过程中,不会被其他客户端发送来的命令请求所打断 ; - 没有隔离级别的概念: 队列中的命令没有提交之前都不会实际被执行,因为事务提交前任何指令都不会被实际执行 - 不保证原子性 :事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚 ### 9.3)Redis的事务秒杀案例 #### 9.3.1)解决计数器和人员记录的事务操作 秒杀主要包括两个操作:1)商品库存 - 1 2)秒杀成功的该用户加到秒杀成功者清单里 ![输入图片说明](img/40.jpg) #### 9.3.2)不考虑并发的秒杀案例实现 新建工程 Seckill ,这是一个WEB工程 创建页面:index.jsp ```jsp <%@ page language="java" contentType="text/html; charset=UTF-8" pageEncoding="UTF-8"%> Insert title here

iPhone 13 Pro !!! 1元秒杀!!!

<%--固定商品id设置为0101--%>
``` 创建 SecKillServlet,页面按钮点击秒杀调用doPost()方法 ```java public class SecKillServlet extends HttpServlet { private static final long serialVersionUID = 1L; public SecKillServlet() { super(); } @Override protected void doPost(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException { // 通过随机数生成用户id String userid = new Random().nextInt(50000) + ""; // 接收调用的商品id String prodid = request.getParameter("prodid"); // 调用秒杀方法 boolean isSuccess = SecKill_redis.doSecKill(userid, prodid); // 根据秒杀的返回结果返回相应信息 response.getWriter().print(isSuccess); } } ``` 创建 SecKill_redis.java,秒杀主方法,秒杀的全流程在这里开发 ```java public class SecKill_redis { public static void main(String[] args) { Jedis jedis = new Jedis("82.157.183.197", 11079); System.out.println(jedis.ping()); jedis.close(); } //秒杀主方法--全过程 public static boolean doSecKill(String uid, String prodid) throws IOException { //步骤1 根据入参用户ID-uid和商品ID-prodid 进行非空判断 if (uid == null || prodid == null) { return false; } //步骤2 连接redis Jedis jedis = new Jedis("82.157.183.197", 11079); //步骤3 拼接key // 3.1 库存key String kcKey = "sk:" + prodid + ":qt"; // 3.2 秒杀成功的用户key String userKey = "sk:" + prodid + ":user"; // 步骤4 获取库存,如果库存null,秒杀还没有开始 String kc = jedis.get(kcKey); if (kc == null) { System.out.println("秒杀还没有开始,请等待"); jedis.close(); return false; } // 步骤5 判断用户是否重复秒杀操作 // 判断set集合中的用户信息,因为不能存在重复的用户【不能重复秒杀】所以使用Set存储用户信息 if (jedis.sismember(userKey, uid)) { System.out.println("已经秒杀成功了,不能重复秒杀"); jedis.close(); return false; } // 步骤6 判断如果商品数量,库存数量小于1,秒杀结束 if (Integer.parseInt(kc) <= 0) { System.out.println("秒杀已经结束了"); jedis.close(); return false; } // 步骤7 秒杀的过程 //7.1 库存-1 jedis.decr(kcKey); //7.2 把秒杀成功用户添加清单里面 jedis.sadd(userKey, uid); System.out.println("秒杀成功了.."); jedis.close(); return true; } } ``` 测试:启动Tomcat工程 浏览器访问:http://localhost:8080/Seckill/ 点击 “秒杀按钮” ,此时还未向 Redis 中添加 商品信息,效果如下图: ![输入图片说明](img/41.jpg) 向Redis中加入商品信息,命令如下:【添加了5个商品】 ```shell 127.0.0.1:11079> flushdb OK 127.0.0.1:11079> keys * (empty array) 127.0.0.1:11079> set sk:0101:qt 5 OK 127.0.0.1:11079> keys * 1) "sk:0101:qt" ``` 刷新页面后再次点击秒杀按钮”,效果如下图: ![输入图片说明](img/42.jpg) 弹框不再弹出,且后台提示 —— 秒杀成功了.. 在Redis中查看相关商品和用户信息: ``` 127.0.0.1:11079> get sk:0101:qt "4" 127.0.0.1:11079> smembers sk:0101:user 1) "452" ``` 发现商品数量已减少1,用户列表新增了秒杀成功的用户 再次点击秒杀按钮”,直到第六次,效果如下图: ![输入图片说明](img/43.jpg) 弹框再次弹出,且后台提示 —— 秒杀已经结束了 在Redis中查看相关商品和用户信息: ``` 127.0.0.1:11079> get sk:0101:qt "0" 127.0.0.1:11079> smembers sk:0101:user 1) "452" 2) "16928" 3) "27602" 4) "41023" 5) "41347" ``` 发现商品信息已经为0,同时用户列表中已经有了5个秒杀成功的用户 上述方案没有考虑并发,会存在问题 **并发测试:** 在Linux系统中安装: ``` yum install httpd-tools ``` 通过ab进行测试 在根目录新建 postfile 文件,内容如下: ``` prodid=0101& ``` 在根目录执行下列命令,执行并发测试 ``` ab -n 1000 -c 100 -p ~/postfile -T application/x-www-form-urlencoded http://172.19.83.237:8080/Seckill/doseckill ``` 【1000个请求、100个并发,调用172.19.83.237(个人主机)上的秒杀方法】 输出: ![输入图片说明](img/44.jpg) 存在问题: - 【超卖问题】已经秒杀结束了,但还存在秒杀成功的情况;Redis 中的商品信息为 -3,不能出现商品为负数的情况 - 【连接超时问题】Redis 无法同时处理过多的请求,不能处理的请求需要等待,等待时间过长会报连接超时错误 #### 9.3.3)并发的秒杀案例实现 上述因没有考虑并发,而存在的连接超时问题和超卖问题解决方案如下: ##### 9.3.3.1)连接超时,通过连接池解决 连接池: - 节省每次连接redis服务带来的消耗,把连接好的实例反复利用; - 通过参数管理连接的行为 连接池参数: - MaxTotal:控制一个pool可分配多少个jedis实例,通过pool.getResource()来获取;如果赋值为-1,则表示不限制;如果pool已经分配了MaxTotal个jedis实例,则此时pool的状态为exhausted; - maxIdle:控制一个pool最多有多少个状态为idle(空闲)的jedis实例; - MaxWaitMillis:表示当borrow一个jedis实例时,最大的等待毫秒数,如果超过等待时间,则直接抛JedisConnectionException; - testOnBorrow:获得一个jedis实例的时候是否检查连接可用性(ping());如果为true,则得到的jedis实例均是可用的; Redis连接池配置类:JedisPoolUtil.java ```java public class JedisPoolUtil { private static volatile JedisPool jedisPool = null; private JedisPoolUtil() { } // 连接池资源连接方法 public static JedisPool getJedisPoolInstance() { if (null == jedisPool) { synchronized (JedisPoolUtil.class) { if (null == jedisPool) { JedisPoolConfig poolConfig = new JedisPoolConfig(); poolConfig.setMaxTotal(200); poolConfig.setMaxIdle(32); poolConfig.setMaxWaitMillis(100 * 1000); poolConfig.setBlockWhenExhausted(true); poolConfig.setTestOnBorrow(true); // ping PONG jedisPool = new JedisPool(poolConfig, "82.157.183.197", 11079, 60000); } } } return jedisPool; } // 连接池资源释放方法 public static void release(JedisPool jedisPool, Jedis jedis) { if (null != jedis) { jedisPool.returnResource(jedis); } } } ``` 修改上述 Redis接口实现类 SecKill_redis.java 中 连接redis的方法为通过连接池得到jedis对象 ```java //步骤2 连接redis // Jedis jedis = new Jedis("82.157.183.197", 11079); // 步骤2 通过连接池得到jedis对象 JedisPool jedisPoolInstance = JedisPoolUtil.getJedisPoolInstance(); Jedis jedis = jedisPoolInstance.getResource(); ``` ##### 9.3.3.2)超卖问题 超卖问题:已经秒杀结束了,但还存在秒杀成功的情况;Redis 中的商品信息为 -3,不能出现商品为负数的情况 ![输入图片说明](img/45.jpg) 解决方案:利用乐观锁淘汰用户,解决超卖问题 ![输入图片说明](img/46.jpg) 修改上述 Redis接口实现类 SecKill_redis.java 中 秒杀的过程添加乐观锁事务管理 ```java //秒杀主方法--全过程 public static boolean doSecKill(String uid, String prodid) throws IOException { //步骤1 根据入参用户ID-uid和商品ID-prodid 进行非空判断 if (uid == null || prodid == null) { return false; } //步骤2 连接redis // Jedis jedis = new Jedis("82.157.183.197", 11079); // 步骤2 通过连接池得到jedis对象 JedisPool jedisPoolInstance = JedisPoolUtil.getJedisPoolInstance(); Jedis jedis = jedisPoolInstance.getResource(); //步骤3 拼接key // 3.1 库存key String kcKey = "sk:" + prodid + ":qt"; // 3.2 秒杀成功的用户key String userKey = "sk:" + prodid + ":user"; // 秒杀过程添加乐观锁事务管理 -- 监视库存 jedis.watch(kcKey); // 步骤4 获取库存,如果库存null,秒杀还没有开始 String kc = jedis.get(kcKey); if (kc == null) { System.out.println("秒杀还没有开始,请等待"); jedis.close(); return false; } // 步骤5 判断用户是否重复秒杀操作 // 判断set集合中的用户信息,因为不能存在重复的用户【不能重复秒杀】所以使用Set存储用户信息 if (jedis.sismember(userKey, uid)) { System.out.println("已经秒杀成功了,不能重复秒杀"); jedis.close(); return false; } // 步骤6 判断如果商品数量,库存数量小于1,秒杀结束 if (Integer.parseInt(kc) <= 0) { System.out.println("秒杀已经结束了"); jedis.close(); return false; } /* // 步骤7 秒杀的过程 //7.1 库存-1 jedis.decr(kcKey); //7.2 把秒杀成功用户添加清单里面 jedis.sadd(userKey, uid);*/ //步骤7改造 秒杀过程添加乐观锁事务管理 //使用事务 Transaction multi = jedis.multi(); //组队操作 multi.decr(kcKey); multi.sadd(userKey,uid); //执行 List results = multi.exec(); if(results == null || results.size()==0) { System.out.println("秒杀失败了...."); jedis.close(); return false; } System.out.println("秒杀成功了.."); jedis.close(); return true; } ``` 再次使用并发测试,通过ab进行测试,测试结果如下: 【超卖问题】和【连接池超时问题】均已解决 ![输入图片说明](img/47.jpg) ##### 9.3.3.3)库存遗留问题 上述解决方案仍然存在一些问题,这次将库存商品设置为500 ![输入图片说明](img/48.jpg) 再次进行并发测试,通过ab进行测试,测试结果如下: 【2000个请求、300个并发,调用172.19.83.237(个人主机)上的秒杀方法】 ![输入图片说明](img/49.jpg) 发现此时秒杀已经结束,但库存商品还剩393个没有秒杀完,这是由于乐观锁事务管理造成的的库存遗留问题 【因为乐观锁,第一个成功的用户将版本号修改了,造成的版本不一致,即使商品还存在,但由于版本号不同了,所以即使有商品其余用户也不能继续购买了】 **库存遗留问题解决方案:** 理论上使用悲观锁就可以解决该问题,但Redis中默认不能直接使用悲观锁,所以此路不通 **典型方案:使用LUA脚本语言解决** LUA脚本在Redis中的优势 将复杂的或者多步的redis操作,写为一个脚本,一次提交给redis执行,减少反复连接redis的次数。提升性能; LUA脚本是类似redis事务,有一定的原子性,不会被其他命令插队,可以完成一些redis事务性的操作; 但是注意redis的lua脚本功能,只有在Redis 2.6以上的版本才可以使用; 利用lua脚本淘汰用户,解决超卖问题; redis 2.6版本以后,通过lua脚本解决争抢问题,实际上是**redis 利用其单线程的特性,用任务队列的方式解决多任务并发问题**。 解决流程如下图: ![输入图片说明](img/50.jpg) 新增Redis接口LUA脚本调用类 SecKill_redisByScript.java ```java public class SecKill_redisByScript { private static final org.slf4j.Logger logger = LoggerFactory.getLogger(SecKill_redisByScript.class); public static void main(String[] args) { JedisPool jedispool = JedisPoolUtil.getJedisPoolInstance(); Jedis jedis = jedispool.getResource(); System.out.println(jedis.ping()); } // return 2 :已经秒杀过 // return 0 :已经秒杀结束 // return 1 :秒杀成功 static String secKillScript = "local userid=KEYS[1];\r\n" + "local prodid=KEYS[2];\r\n" + "local qtkey='sk:'..prodid..\":qt\";\r\n" + "local usersKey='sk:'..prodid..\":usr\";\r\n" + "local userExists=redis.call(\"sismember\",usersKey,userid);\r\n" + "if tonumber(userExists)==1 then \r\n" + " return 2;\r\n" + "end\r\n" + "local num= redis.call(\"get\" ,qtkey);\r\n" + "if tonumber(num)<=0 then \r\n" + " return 0;\r\n" + "else \r\n" + " redis.call(\"decr\",qtkey);\r\n" + " redis.call(\"sadd\",usersKey,userid);\r\n" + "end\r\n" + "return 1"; public static boolean doSecKill(String uid, String prodid) throws IOException { // 通过连接池得到jedis对象 JedisPool jedispool = JedisPoolUtil.getJedisPoolInstance(); Jedis jedis = jedispool.getResource(); // 加载LUA脚本 secKillScript String sha1 = jedis.scriptLoad(secKillScript); // 利用LUA脚本调用相关Redis操作方法 Object result = jedis.evalsha(sha1, 2, uid, prodid); String reString = String.valueOf(result); if ("0".equals(reString)) { System.err.println("已抢空!!"); } else if ("1".equals(reString)) { System.out.println("抢购成功!!!!"); } else if ("2".equals(reString)) { System.err.println("该用户已抢过!!"); } else { System.err.println("抢购异常!!"); } jedis.close(); return true; } } ``` 修改在Redis接口类 SecKillServlet中调用秒杀的方法 ```java @Override protected void doPost(HttpServletRequest request, HttpServletResponse response) throws ServletException, IOException { // 通过随机数生成用户id String userid = new Random().nextInt(50000) + ""; // 接收调用的商品id String prodid = request.getParameter("prodid"); // 调用秒杀方法 // boolean isSuccess = SecKill_redis.doSecKill(userid, prodid); // 调用LUA脚本中的秒杀方法 boolean isSuccess= SecKill_redisByScript.doSecKill(userid,prodid); // 根据秒杀的返回结果返回相应信息 response.getWriter().print(isSuccess); } ``` 测试输出:再次进行并发测试,通过ab进行测试,测试结果如下: 【2000个请求、300个并发,调用172.19.83.237(个人主机)上的秒杀方法】 ![输入图片说明](img/51.jpg) 库存最后经过秒杀后变成了 0 ,至此库存遗留问题解决。 ## 十)Redis持久化 ### 10.1)Redis持久化介绍 官网介绍:http://www.redis.io Redis 提供了2个不同形式的持久化方式 - RDB(Redis DataBase) - AOF(Append Of File) ### 10.2)RDB(Redis DataBase) #### 10.2.1)RDB是什么 在指定的**时间间隔**内将内存中的**数据集快照**写入磁盘, 也就是常说的Snapshot快照,它恢复时是将快照文件直接读到内存里; #### 10.2.2)备份是如何执行的 Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件,而不是直接写入到持久化文件中,过程如下图: ![输入图片说明](img/52.jpg) 写入到临时文件的好处:保证数据的一致性和完整性,以及数据的安全性,防止在写入文件过程中服务器挂了导致数据文件全部丢失; 整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能;如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效; RDB的缺点:最后一次持久化后的数据可能丢失。 #### 10.2.3)Fork Fork的作用是复制一个与当前进程一样的进程:新进程的所有数据(变量、环境变量、程序计数器等) 数值都和原进程一致,但是是一个全新的进程,并作为原进程的子进程; 在Linux程序中,fork()会产生一个和父进程完全相同的子进程,但子进程在此后多会exec系统调用,出于效率考虑,Linux中引入了“写时复制技术”,在同步之前先创建临时文件,再向新创建的文件中写内容,写完成之后再替换原有的旧内容;即上述Redis将数据写入到临时文件的技术; 一般情况父进程和子进程会共用同一段物理内存,只有进程空间的各段的内容要发生变化时,才会将父进程的内容复制一份给子进程。 #### 10.2.4)RDB持久化流程 ![输入图片说明](img/53.jpg) #### 10.2.5)RDB在配置文件中的相关配置 ##### 10.2.5.1)dump.rdb文件 在redis.conf中配置文件名称,默认为dump.rdb ```shell # Enables or disables full sanitation checks for ziplist and listpack etc when # loading an RDB or RESTORE payload. This reduces the chances of a assertion or # crash later on while processing commands. # Options: # no - Never perform full sanitation # yes - Always perform full sanitation # clients - Perform full sanitation only for user connections. # Excludes: RDB files, RESTORE commands received from the master # connection, and client connections which have the # skip-sanitize-payload ACL flag. # The default should be 'clients' but since it currently affects cluster # resharding via MIGRATE, it is temporarily set to 'no' by default. # # sanitize-dump-payload no # The filename where to dump the DB dbfilename dump.rdb ``` ##### 10.2.5.2)配置位置 rdb文件的保存路径,也可以修改,默认为Redis启动时命令行所在的目录下 ```shell # The working directory. # # The DB will be written inside this directory, with the filename specified # above using the 'dbfilename' configuration directive. # # The Append Only File will also be created inside this directory. # # Note that you must specify a directory here, not a file name. dir ./ ``` ##### 10.2.5.3)Save 格式:save 秒钟 写操作次数 ```shell # This will make the user aware (in a hard way) that data is not persisting # Save the DB to disk. # # save # # Redis will save the DB if both the given number of seconds and the given # number of write operations against the DB occurred. # # Snapshotting can be completely disabled with a single empty string argument # as in following example: # # save "" # # Unless specified otherwise, by default Redis will save the DB: # * After 3600 seconds (an hour) if at least 1 key changed # * After 300 seconds (5 minutes) if at least 100 keys changed # * After 60 seconds if at least 10000 keys changed # # You can set these explicitly by uncommenting the three following lines. # # save 3600 1 # save 300 100 # save 60 10000 ``` RDB是整个内存的压缩过的Snapshot,RDB的数据结构,可以配置复合的快照触发条件,默认是1分钟内改了1万次,或5分钟内改了10次,或15分钟内改了1次。【save 3600 1:在规定时间3600 秒内至少有1次key发生变化就会记入文件dump.rdb中】 禁用:不设置save指令,或者给save传入空字符串 ##### 10.2.5.4)stop-writes-on-bgsave-error ```shell # By default Redis will stop accepting writes if RDB snapshots are enabled # (at least one save point) and the latest background save failed. # This will make the user aware (in a hard way) that data is not persisting # on disk properly, otherwise chances are that no one will notice and some # disaster will happen. # # If the background saving process will start working again Redis will # automatically allow writes again. # # However if you have setup your proper monitoring of the Redis server # and persistence, you may want to disable this feature so that Redis will # continue to work as usual even if there are problems with disk, # permissions, and so forth. stop-writes-on-bgsave-error yes ``` 当Redis无法写入磁盘的话,直接关掉Redis的写操作,推荐yes ##### 10.2.5.5)rdbcompression 压缩文件 ```shell # Compress string objects using LZF when dump .rdb databases? # By default compression is enabled as it's almost always a win. # If you want to save some CPU in the saving child set it to 'no' but # the dataset will likely be bigger if you have compressible values or keys. rdbcompression yes ``` 对于存储到磁盘中的快照,可以设置是否进行压缩存储。如果是的话,redis会采用LZF算法进行压缩。 如果不想消耗CPU来进行压缩的话,可以设置为关闭此功能。推荐yes ##### 10.2.5.6)rdbchecksum 检查完整性 ```shell # Since version 5 of RDB a CRC64 checksum is placed at the end of the file. # This makes the format more resistant to corruption but there is a performance # hit to pay (around 10%) when saving and loading RDB files, so you can disable it # for maximum performances. # # RDB files created with checksum disabled have a checksum of zero that will # tell the loading code to skip the check. rdbchecksum yes ``` 在存储快照后,还可以让redis使用CRC64算法来进行数据校验,但是这样做会增加大约10%的性能消耗,如果希望获取到最大的性能提升,可以关闭此功能,推荐yes #### 10.2.6)RDB演示 修改配置文件: ```shell # You can set these explicitly by uncommenting the three following lines. # # save 3600 1 # save 300 100 # save 60 10000 save 20 3 ``` 重启redis-server【dump.rdb——111】 ``` -rw-r--r-- 1 root root 92 Apr 16 21:10 backup.db -rwxr-xr-x 1 root root 1001112 Aug 5 2020 busybox-x86_64 -rw-r--r-- 1 root root 111 Apr 17 20:11 dump.rdb -rwxr-xr-x 1 root root 63344 Apr 16 21:18 pnscan -rwxr-xr-x 1 root root 4829496 Apr 15 23:21 redis-benchmark lrwxrwxrwx 1 root root 12 Apr 15 23:21 redis-check-aof -> redis-server lrwxrwxrwx 1 root root 12 Apr 15 23:21 redis-check-rdb -> redis-server -rwxr-xr-x 1 root root 5003784 Apr 15 23:21 redis-cli lrwxrwxrwx 1 root root 12 Apr 15 23:21 redis-sentinel -> redis-server -rwxr-xr-x 1 root root 9524048 Apr 15 23:21 redis-server ``` 连接客户端添加改动: ``` [root@VM-20-6-centos bin]# redis-cli -p 11079 127.0.0.1:11079> set a a1 OK 127.0.0.1:11079> set b b1 OK 127.0.0.1:11079> set c c1 OK 127.0.0.1:11079> set d d1 OK ``` 再次打开启动目录:【dump.rdb——129】 ``` -rw-r--r-- 1 root root 92 Apr 16 21:10 backup.db -rwxr-xr-x 1 root root 1001112 Aug 5 2020 busybox-x86_64 -rw-r--r-- 1 root root 129 Apr 18 22:28 dump.rdb -rwxr-xr-x 1 root root 63344 Apr 16 21:18 pnscan -rwxr-xr-x 1 root root 4829496 Apr 15 23:21 redis-benchmark lrwxrwxrwx 1 root root 12 Apr 15 23:21 redis-check-aof -> redis-server lrwxrwxrwx 1 root root 12 Apr 15 23:21 redis-check-rdb -> redis-server -rwxr-xr-x 1 root root 5003784 Apr 15 23:21 redis-cli lrwxrwxrwx 1 root root 12 Apr 15 23:21 redis-sentinel -> redis-server -rwxr-xr-x 1 root root 9524048 Apr 15 23:21 redis-server ``` 说明数据已持久化 #### 10.2.7)RDB的备份 流程如下: - 关闭Redis - 先把备份的文件拷贝到工作目录下 cp dump.rdb d.rdb - 启动Redis, 备份数据会直接加载 ``` # 清空再插入数据 127.0.0.1:11079> flushdb OK 127.0.0.1:11079> set a a1 OK 127.0.0.1:11079> set b b1 OK 127.0.0.1:11079> set c c1 OK 127.0.0.1:11079> set d d1 OK # 拷贝文件d.rdb [root@VM-20-6-centos bin]# cp dump.rdb d.rdb # 停止Redis服务 [root@VM-20-6-centos bin]# ps -ef | grep redis root 9075 1833 0 22:26 pts/2 00:00:00 redis-cli -p 11079 root 9960 27188 0 22:44 pts/1 00:00:00 grep --color=auto redis root 12161 8645 0 22:27 pts/0 00:00:00 vim redis.conf root 30157 1 0 22:23 ? 00:00:01 redis-server *:11079 [root@VM-20-6-centos bin]# kill -9 30157 # 删除旧的文件 [root@VM-20-6-centos bin]# rm -rf dump.rdb # 将拷贝的文件改名 [root@VM-20-6-centos bin]# mv d.rdb dump.rdb # 启动Redis服务 [root@VM-20-6-centos bin]# redis-server /root/redis/redis-6.2.6/redis.conf # 连接客户端,查看Redis存储的值 127.0.0.1:11079> keys * Error: Broken pipe 127.0.0.1:11079> keys * 1) "c" 2) "b" 3) "a" ``` #### 10.2.8)RDB的优势和劣势 优势: - 适合大规模的数据恢复; - 对数据完整性和一致性要求不高更适合使用; - 节省磁盘空间; - 恢复速度快 劣势: - Fork的时候,内存中的数据被克隆了一份,大致2倍的膨胀性需要考虑; - 虽然Redis在fork时使用了写时拷贝技术,但是如果数据庞大时还是比较消耗性能; - 在备份周期在一定间隔时间做一次备份,所以如果Redis意外down掉的话,就会丢失最后一次快照后的所有修改。 #### 10.2.9)如何停止RDB备份 动态停止RDB:redis-cli config set save "" #save后给空值,表示禁用保存策略 #### 10.2.10)RDB总结 ![输入图片说明](img/54.jpg) ### 10.3)AOF(Append Only File) #### 10.3.1)AOF简介 以日志的形式来记录每个写操作(增量保存),将Redis执行过的所有写指令记录下来(读操作不记录), 只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis 重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作。 #### 10.3.2)AOF持久化流程 - 客户端的请求写命令会被append追加到AOF缓冲区内; - AOF缓冲区根据AOF持久化策略[always,everysec,no]将操作sync同步到磁盘的AOF文件中; - AOF文件大小超过重写策略或手动重写时,会对AOF文件rewrite重写,压缩AOF文件容量; - Redis服务重启时,会重新load加载AOF文件中的写操作达到数据恢复的目的; #### 10.3.3)AOF默认不开启 可以在redis.conf中配置文件名称,默认为 appendonly.aof,AOF文件的保存路径,同RDB的路径一致。 ```shell # AOF and RDB persistence can be enabled at the same time without problems. # If the AOF is enabled on startup Redis will load the AOF, that is the file # with the better durability guarantees. # # Please check https://redis.io/topics/persistence for more information. # 默认为no,修改为yes appendonly yes # The name of the append only file (default: "appendonly.aof") appendfilename "appendonly.aof" ``` 修改配置文件后重启,目录中已存在 appendonly.aof ```shell [root@VM-20-6-centos bin]# redis-server /root/redis/redis-6.2.6/redis.conf [root@VM-20-6-centos bin]# ll total 19964 -rw-r--r-- 1 root root 0 Apr 18 23:35 appendonly.aof -rw-r--r-- 1 root root 92 Apr 16 21:10 backup.db -rwxr-xr-x 1 root root 1001112 Aug 5 2020 busybox-x86_64 -rw-r--r-- 1 root root 115 Apr 18 22:42 dump.rdb -rwxr-xr-x 1 root root 63344 Apr 16 21:18 pnscan -rwxr-xr-x 1 root root 4829496 Apr 15 23:21 redis-benchmark lrwxrwxrwx 1 root root 12 Apr 15 23:21 redis-check-aof -> redis-server lrwxrwxrwx 1 root root 12 Apr 15 23:21 redis-check-rdb -> redis-server -rwxr-xr-x 1 root root 5003784 Apr 15 23:21 redis-cli lrwxrwxrwx 1 root root 12 Apr 15 23:21 redis-sentinel -> redis-server -rwxr-xr-x 1 root root 9524048 Apr 15 23:21 redis-server ``` #### 10.3.4)AOF和RDB同时开启,redis听谁的? AOF和RDB同时开启,系统默认取AOF的数据(数据不会存在丢失) ``` [root@VM-20-6-centos bin]# redis-cli -p 11079 127.0.0.1:11079> keys * (empty array) ``` 之前的RDB还存在,但从Redis中已经读取不到数据了 #### 10.3.5)AOF启动/修复/恢复 AOF的备份机制和性能虽然和RDB不同, 但是备份和恢复的操作同RDB一样,都是拷贝备份文件,需要恢复时再拷贝到Redis工作目录下,启动系统即加载。 正常恢复: - 修改默认的appendonly no,改为yes - 将有数据的aof文件复制一份保存到对应目录(查看目录:config get dir) - 恢复:重启redis然后重新加载 异常恢复: - 修改默认的appendonly no,改为yes - 如遇到AOF文件损坏,通过/usr/local/bin/redis-check-aof--fix appendonly.aof进行恢复 - 备份被写坏的AOF文件 - 恢复:重启redis,然后重新加载 插入数据: ``` 127.0.0.1:11079> keys * (empty array) 127.0.0.1:11079> set k1 v1 OK 127.0.0.1:11079> set k2 v2 OK 127.0.0.1:11079> set k3 v3 OK 127.0.0.1:11079> set k4 v4 ``` 拷贝文件appendonly-bak.aof: ``` -rw-r--r-- 1 root root 139 Apr 18 23:43 appendonly.aof -rw-r--r-- 1 root root 92 Apr 16 21:10 backup.db -rwxr-xr-x 1 root root 1001112 Aug 5 2020 busybox-x86_64 -rw-r--r-- 1 root root 118 Apr 18 23:43 dump.rdb -rwxr-xr-x 1 root root 63344 Apr 16 21:18 pnscan -rwxr-xr-x 1 root root 4829496 Apr 15 23:21 redis-benchmark lrwxrwxrwx 1 root root 12 Apr 15 23:21 redis-check-aof -> redis-server lrwxrwxrwx 1 root root 12 Apr 15 23:21 redis-check-rdb -> redis-server -rwxr-xr-x 1 root root 5003784 Apr 15 23:21 redis-cli lrwxrwxrwx 1 root root 12 Apr 15 23:21 redis-sentinel -> redis-server -rwxr-xr-x 1 root root 9524048 Apr 15 23:21 redis-server [root@VM-20-6-centos bin]# cp appendonly.aof appendonly-bak.aof ``` 停止Redis服务: ``` [root@VM-20-6-centos bin]# ps -ef | grep redis root 6483 1 0 23:35 ? 00:00:00 redis-server *:11079 root 9075 1833 0 22:26 pts/2 00:00:00 redis-cli -p 11079 root 12113 18250 0 23:45 pts/3 00:00:00 grep --color=auto redis root 12161 8645 0 22:27 pts/0 00:00:00 vim redis.conf root 18852 14699 0 23:38 pts/5 00:00:00 redis-cli -p 11079 [root@VM-20-6-centos bin]# kill -9 6483 ``` 删除旧的文件: ``` [root@VM-20-6-centos bin]# rm -rf appendonly.aof ``` 将拷贝的文件改名: ``` [root@VM-20-6-centos bin]# mv appendonly-bak.aof appendonly.aof ``` 启动Redis服务: ``` [root@VM-20-6-centos bin]# redis-server /root/redis/redis-6.2.6/redis.conf ``` 连接客户端,查看Redis存储的值: ``` 127.0.0.1:11079> keys * Error: Server closed the connection 127.0.0.1:11079> keys * 1) "k1" 2) "k2" 3) "k3" 4) "k4" ``` #### 10.3.6)AOF同步频率设置 appendfsync always:始终同步,每次Redis的写入都会立刻记入日志;性能较差但数据完整性比较好; appendfsync everysec:每秒同步,每秒记入日志一次,如果宕机,本秒的数据可能丢失; appendfsync no:redis不主动进行同步,把同步时机交给操作系统 #### 10.3.7)Rewrite压缩 ##### 10.3.7.1)是什么 AOF采用文件追加方式,文件会越来越大为避免出现此种情况,新增了重写机制, 当AOF文件的大小超过所设定的阈值时,Redis就会启动AOF文件的内容压缩, 只保留可以恢复数据的最小指令集.可以使用命令bgrewriteaof ##### 10.3.7.2)重写原理,如何实现重写 AOF文件持续增长而过大时,会fork出一条新进程来将文件重写(也是先写临时文件最后再rename),redis4.0版本后的重写,是指上就是把rdb 的快照,以二级制的形式附在新的aof头部,作为已有的历史数据,替换掉原来的流水账操作。 **no-appendfsync-on-rewrite:**如果 no-appendfsync-on-rewrite=yes ,不写入aof文件只写入缓存,用户请求不会阻塞,但是在这段时间如果宕机会丢失这段时间的缓存数据。(降低数据安全性,提高性能) 如果 no-appendfsync-on-rewrite=no, 还是会把数据往磁盘里刷,但是遇到重写操作,可能会发生阻塞。(数据安全,但是性能降低) 触发机制,何时重写 Redis会记录上次重写时的AOF大小,默认配置是当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发,重写虽然可以节约大量磁盘空间,减少恢复时间。但是每次重写还是有一定的负担的,因此设定Redis要满足一定条件才会进行重写。 **auto-aof-rewrite-percentage:**设置重写的基准值,文件达到100%时开始重写(文件是原来重写后文件的2倍时触发) **auto-aof-rewrite-min-size:**设置重写的基准值,最小文件64MB。达到这个值开始重写。 例如:文件达到70MB开始重写,降到50MB,下次什么时候开始重写?100MB 系统载入时或者上次重写完毕时,Redis会记录此时AOF大小,设为base_size, 如果Redis的AOF当前大小>= base_size +base_size*100% (默认)且当前大小>=64mb(默认)的情况下,Redis会对AOF进行重写。 ##### 10.3.7.3)重写流程 1. bgrewriteaof触发重写,判断是否当前有bgsave或bgrewriteaof在运行,如果有,则等待该命令结束后再继续执行; 2. 主进程fork出子进程执行重写操作,保证主进程不会阻塞; 3. 子进程遍历redis内存中数据到临时文件,客户端的写请求同时写入aof_buf缓冲区和aof_rewrite_buf重写缓冲区保证原AOF文件完整以及新AOF文件生成期间的新的数据修改动作不会丢失; 4. 子进程写完新的AOF文件后,向主进程发信号,父进程更新统计信息;主进程把aof_rewrite_buf中的数据写入到新的AOF文件; 5. 使用新的AOF文件覆盖旧的AOF文件,完成AOF重写。 6. 流程图如下图: ![输入图片说明](img/55.jpg) #### 10.3.8)AOF的优势和劣势 优势: 1. 备份机制更稳健,丢失数据概率更低; 2. 可读的日志文本,通过操作AOF稳健,可以处理误操作 劣势: 1. 比起RDB占用更多的磁盘空间 2. 恢复备份速度要慢 3. 每次读写都同步的话,有一定的性能压力 4. 存在个别Bug,造成恢复不能 #### 10.3.9)AOF总结 ![输入图片说明](img/56.jpg) ### 10.4)Redis持久化如何选择 官方推荐两个都启用; 如果对数据不敏感,可以选单独用RDB; 不建议单独用 AOF,因为可能会出现Bug; 如果只是做纯内存缓存,可以都不用 #### 10.4.1)官网建议 ``` >  RDB持久化方式能够在指定的时间间隔能对你的数据进行快照存储 > >  AOF持久化方式记录每次对服务器写的操作,当服务器重启的时候会重新执行这些命令来恢复原始的数据,AOF命令以redis协议追加保存每次写的操作到文件末尾 > >  Redis还能对AOF文件进行后台重写,使得AOF文件的体积不至于过大 > >  只做缓存:如果你只希望你的数据在服务器运行的时候存在,你也可以不使用任何持久化方式 > >  同时开启两种持久化方式 > >  在这种情况下,当redis重启的时候会优先载入AOF文件来恢复原始的数据, 因为在通常情况下AOF文件保存的数据集要比RDB文件保存的数据集要完整 > >  RDB的数据不实时,同时使用两者时服务器重启也只会找AOF文件。那要不要只使用AOF呢? > >  建议不要,因为RDB更适合用于备份数据库(AOF在不断变化不好备份), 快速重启,而且不会有AOF可能潜在的bug,留着作为一个万一的手段。 > >  性能建议 > > ``` > 因为RDB文件只用作后备用途,建议只在Slave上持久化RDB文件,而且只要15分钟备份一次就够了,只保留save 900 1这条规则。 > > 如果使用AOF,好处是在最恶劣情况下也只会丢失不超过两秒数据,启动脚本较简单只load自己的AOF文件就可以了。 > 代价,一是带来了持续的IO,二是AOF rewrite的最后将rewrite过程中产生的新数据写到新文件造成的阻塞几乎是不可避免的。 > 只要硬盘许可,应该尽量减少AOF rewrite的频率,AOF重写的基础大小默认值64M太小了,可以设到5G以上。 > 默认超过原大小100%大小时重写可以改到适当的数值。 > ``` ``` ## 十一)Redis的主从复制 ### 11.1)简介 主机数据更新后根据配置和策略, 自动同步到备机的master/slaver机制,Master以写为主,Slave以读为主 ### 11.2)用途 1. 读写分离,性能扩展:主机用来写,从机用来读; 2. 容灾快速恢复:有一个从机挂了,迅速切换到下一台从机继续提供服务 ![输入图片说明](img/57.jpg) ### 11.3)模拟主从复制步骤 首先将配置文件redis.conf中的appendonly设置为 no ```shell appendonly no ``` #### 11.3.1)创建myredis文件夹 ``` [root@VM-20-6-centos ~]# mkdir myredis ``` #### 11.3.2)复制redis.conf配置文件到myredis文件夹 ``` [root@VM-20-6-centos myredis]# cp /root/redis/redis-6.2.6/redis.conf /root/myredis/redis.conf ``` #### 11.3.3)在myredis文件夹中创建三个配置文件 创建 redis11079.conf ``` include /root/myredis/redis.conf pidfile /var/run/redis_11079.pid port 11079 dbfilename dump11079.rdb ``` 同上创建 redis11080.conf 和 redis11081.conf #### 11.3.4)启动上述配置文件对应的服务 ``` [root@VM-20-6-centos myredis]# redis-server redis11079.conf [root@VM-20-6-centos myredis]# redis-server redis11080.conf [root@VM-20-6-centos myredis]# redis-server redis11081.conf [root@VM-20-6-centos myredis]# ps -ef | grep redis-server root 14603 1 0 21:55 ? 00:00:00 redis-server *:11080 root 24915 1 0 21:58 ? 00:00:00 redis-server *:11079 root 24923 1 0 21:58 ? 00:00:00 redis-server *:11081 ``` #### 11.3.5)查看服务的运行状况 ```shell # 主机查看连接信息 127.0.0.1:11079> info replication # Replication role:master connected_slaves:0 master_failover_state:no-failover master_replid:c9cdcd2a4ad944ae472ebb33119a7d3263cddf6c master_replid2:0000000000000000000000000000000000000000 master_repl_offset:0 second_repl_offset:-1 repl_backlog_active:0 repl_backlog_size:1048576 repl_backlog_first_byte_offset:0 repl_backlog_histlen:0 # 从机1设置从机信息 11080 127.0.0.1:11080> slaveof 127.0.0.1 11079 OK # 从机2设置从机信息 11081 127.0.0.1:11081> slaveof 127.0.0.1 11079 OK # 主机再次查看连接信息 127.0.0.1:11079> info replication # Replication role:master connected_slaves:2 slave0:ip=127.0.0.1,port=11081,state=online,offset=28,lag=0 slave1:ip=127.0.0.1,port=11080,state=online,offset=28,lag=1 master_failover_state:no-failover master_replid:15e8d1cdfdecaff829768c661826871d4f3bbbb7 master_replid2:0000000000000000000000000000000000000000 master_repl_offset:28 second_repl_offset:-1 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:1 repl_backlog_histlen:28 ``` #### 11.3.6)测试 ```shell # 主机添加信息 127.0.0.1:11079> keys * (empty array) 127.0.0.1:11079> set a1 v1 OK 127.0.0.1:11079> keys * 1) "a1" # 从机1查看信息 11080 127.0.0.1:11080> keys * 1) "a1" # 从机2查看信息 11081 127.0.0.1:11081> keys * 1) "a1" #从机1添加信息报错 127.0.0.1:11080> set a2 v2 (error) READONLY You can't write against a read only replica. ``` ### 11.4)常用3种模式 #### 11.4.1)一主二仆 正如上面所演示的那样,当其中一台从机挂了,停止从机2,演示如下: ``` 127.0.0.1:11081> shutdown not connected> exit ``` 继续在主机添加信息: ``` 127.0.0.1:11079> set a2 v2 OK 127.0.0.1:11079> set a3 v3 OK 127.0.0.1:11079> keys * 1) "a3" 2) "a1" 3) "a2" ``` 在从机1 -- 11080上也可以看到 ``` 127.0.0.1:11080> keys * 1) "a3" 2) "a2" 3) "a1" ``` 再次启动从机2--11081 ``` [root@VM-20-6-centos myredis]# redis-server redis11081.conf [root@VM-20-6-centos myredis]# redis-cli -p 11081 127.0.0.1:11081> info replication # Replication role:master ``` 发现重启的从机2已经不再是从机了,而是和主机11079毫无关系的另一台主机 再次设置11081为从机 ``` 127.0.0.1:11081> slaveof 127.0.0.1 11079 OK 127.0.0.1:11081> info replication # Replication role:slave 127.0.0.1:11081> keys * 1) "a1" 2) "a3" 3) "a2" ``` 发现上述重新设置为从机后,之前服务停止时加入到主机11079中的数据,也已经复制到了从机11081上,会将主机上的所有数据都复制到从机 当主机服务挂了,停止主机,演示如下: ``` 127.0.0.1:11079> shutdown not connected> exit ``` 从机查看服务信息: ``` 127.0.0.1:11080> info replication # Replication role:slave master_host:127.0.0.1 master_port:11079 master_link_status:down ``` 从机仍然是从机,并且已经知道主机的状态是 down了 再次重新启动主机 ``` [root@VM-20-6-centos myredis]# redis-server redis11079.conf [root@VM-20-6-centos myredis]# redis-cli -p 11079 127.0.0.1:11079> info replication # Replication role:master ``` 主机重启后仍然是主机,不会升级为主机 ##### 11.4.1.1)总结 1. 当从机服务挂了后,重新启动后会成为和之前主机毫无关系的另一台主机,需要手动重新设置为从机; 2. 当重新设置为从机后,会将主机当前的数据从头开始全部复制到该从机上; 3. 主机服务挂了后,从机仍然是从机,并且会知道主机的状态挂了,当主机服务正常后,仍然是主机,从机并不会升级为主机 ##### 11.4.1.2)主从复制原理 1. 从机启动成功连接到主机后会发送一个要进行数据同步的命令; 2. 主机接到从机发送的同步命令,将主机的数据进行持久化保存到RDB文件,将RDB文件发送给从机,从机回去到RDB文件进行数据读取 全量复制:从机在接收到数据库文件数据后,将其存盘并加载到内存中; 增量复制:主机继续将新的所有收集到的修改命令依次传给从机完成同步,但是只要是重新连接主机,一次完全同步(全量复制)将被自动执行。 #### 11.4.2)薪火相传 上一个从机(Slave)可以是下一个从机的主机(Master),从机同样可以接收其他从机的连接和同步请求,那么该从机作为了链条中下一个的主机(Master), 可以有效减轻主机(Master)的写压力,去中心化降低风险。 命令: slaveof 演示:停止从机2,重启后将其设置为从机1的从机 ``` 127.0.0.1:11081> shutdown not connected> exit [root@VM-20-6-centos myredis]# redis-server redis11081.conf [root@VM-20-6-centos myredis]# redis-cli -p 11081 127.0.0.1:11081> slaveof 127.0.0.1 11080 OK ``` 查看从机1的服务信息 ``` 127.0.0.1:11080> info replication # Replication role:slave master_host:127.0.0.1 master_port:11079 master_link_status:up master_last_io_seconds_ago:7 master_sync_in_progress:0 slave_read_repl_offset:1624 slave_repl_offset:1624 slave_priority:100 slave_read_only:1 replica_announced:1 connected_slaves:1 slave0:ip=127.0.0.1,port=11081,state=online,offset=1624,lag=1 master_failover_state:no-failover master_replid:71cfb51805684217dcc56803ed19797b85b701e5 master_replid2:0000000000000000000000000000000000000000 master_repl_offset:1624 second_repl_offset:-1 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:1 repl_backlog_histlen:1624 ``` 主机服务挂了后,从机仍然是从机,并且会知道主机的状态挂了,当主机服务正常后,仍然是主机,从机并不会升级为主机 中途变更转向:会清除之前的数据,重新建立拷贝最新的 风险:一旦某个从机(Slave)宕机,后面的从机(Slave)都没法备份; ​ 主机挂了,从机仍然是从机,无法写数据了 #### 11.4.3)反客为主 当一个主机(master)宕机后,后面的从机(slave)可以立刻升为主机(master),其后面的从机(slave)不用做任何修改;用 slaveof no one 将从机变为主机。 停止主机服务: ``` 127.0.0.1:11079> shutdown not connected> exit ``` 将从机1变为主机主机服务: ``` 127.0.0.1:11080> info replication # Replication role:slave master_host:127.0.0.1 master_port:11079 master_link_status:down master_last_io_seconds_ago:-1 master_sync_in_progress:0 slave_read_repl_offset:2156 slave_repl_offset:2156 master_link_down_since_seconds:9 slave_priority:100 slave_read_only:1 replica_announced:1 connected_slaves:1 slave0:ip=127.0.0.1,port=11081,state=online,offset=2156,lag=1 master_failover_state:no-failover master_replid:71cfb51805684217dcc56803ed19797b85b701e5 master_replid2:0000000000000000000000000000000000000000 master_repl_offset:2156 second_repl_offset:-1 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:1 repl_backlog_histlen:2156 127.0.0.1:11080> slaveof no one OK # 从机变为主机 127.0.0.1:11080> info replication # Replication role:master connected_slaves:1 slave0:ip=127.0.0.1,port=11081,state=online,offset=2156,lag=1 master_failover_state:no-failover master_replid:aa8983018fe311b09163d1b5af6fe70c6d9fa207 master_replid2:71cfb51805684217dcc56803ed19797b85b701e5 master_repl_offset:2170 second_repl_offset:2157 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:1 repl_backlog_histlen:2170 127.0.0.1:11080> ``` 上述修改仍然需要手动进行修改 ### 11.5)哨兵模式 #### 11.5.1)简介 反客为主的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库 #### 11.5.2)使用步骤 ##### 11.5.2.1)调整为一主二仆模式 ```shell 127.0.0.1:11079> info replication # Replication role:master connected_slaves:2 slave0:ip=127.0.0.1,port=11081,state=online,offset=266,lag=1 slave1:ip=127.0.0.1,port=11080,state=online,offset=266,lag=1 master_failover_state:no-failover master_replid:e504980f294d5cb1c873bf68464b81ce21294369 master_replid2:0000000000000000000000000000000000000000 master_repl_offset:266 second_repl_offset:-1 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:1 repl_backlog_histlen:266 ``` 11079 : 主机 11080 、11081:从机 ##### 11.5.2.2)新建配置文件 自定义的/myredis目录下新建sentinel.conf文件 ``` sentinel monitor mymaster 127.0.0.1 11079 1 ``` 执行启动命令: ``` redis-sentinel /root/myredis/sentinel.conf ``` 启动成功: ```shell [root@VM-20-6-centos bin]# redis-sentinel /root/myredis/sentinel.conf 17788:X 21 Apr 2022 00:31:15.637 # oO0OoO0OoO0Oo Redis is starting oO0OoO0OoO0Oo 17788:X 21 Apr 2022 00:31:15.637 # Redis version=6.2.6, bits=64, commit=00000000, modified=0, pid=17788, just started 17788:X 21 Apr 2022 00:31:15.637 # Configuration loaded 17788:X 21 Apr 2022 00:31:15.638 * monotonic clock: POSIX clock_gettime _._ _.-``__ ''-._ _.-`` `. `_. ''-._ Redis 6.2.6 (00000000/0) 64 bit .-`` .-```. ```\/ _.,_ ''-._ ( ' , .-` | `, ) Running in sentinel mode |`-._`-...-` __...-.``-._|'` _.-'| Port: 26379 | `-._ `._ / _.-' | PID: 17788 `-._ `-._ `-./ _.-' _.-' |`-._`-._ `-.__.-' _.-'_.-'| | `-._`-._ _.-'_.-' | https://redis.io `-._ `-._`-.__.-'_.-' _.-' |`-._`-._ `-.__.-' _.-'_.-'| | `-._`-._ _.-'_.-' | `-._ `-._`-.__.-'_.-' _.-' `-._ `-.__.-' _.-' `-._ _.-' `-.__.-' 17788:X 21 Apr 2022 00:31:15.639 # WARNING: The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128. 17788:X 21 Apr 2022 00:31:15.647 # Sentinel ID is cb52f79e99489e385a57361aef7982875b0384aa 17788:X 21 Apr 2022 00:31:15.647 # +monitor master mymaster 127.0.0.1 11079 quorum 1 17788:X 21 Apr 2022 00:31:15.648 * +slave slave 127.0.0.1:11081 127.0.0.1 11081 @ mymaster 127.0.0.1 11079 17788:X 21 Apr 2022 00:31:15.655 * +slave slave 127.0.0.1:11080 127.0.0.1 11080 @ mymaster 127.0.0.1 11079 ``` ##### 11.5.2.3)测试 停止主机服务: ``` 127.0.0.1:11079> shutdown not connected> exit ``` 上述 redis-sentinel 界面: ``` 17788:X 21 Apr 2022 00:34:33.399 # +promoted-slave slave 127.0.0.1:11080 127.0.0.1 11080 @ mymaster 127.0.0.1 11079 17788:X 21 Apr 2022 00:34:33.399 # +failover-state-reconf-slaves master mymaster 127.0.0.1 11079 17788:X 21 Apr 2022 00:34:33.482 * +slave-reconf-sent slave 127.0.0.1:11081 127.0.0.1 11081 @ mymaster 127.0.0.1 11079 17788:X 21 Apr 2022 00:34:34.438 * +slave-reconf-inprog slave 127.0.0.1:11081 127.0.0.1 11081 @ mymaster 127.0.0.1 11079 17788:X 21 Apr 2022 00:34:34.438 * +slave-reconf-done slave 127.0.0.1:11081 127.0.0.1 11081 @ mymaster 127.0.0.1 11079 17788:X 21 Apr 2022 00:34:34.509 # +failover-end master mymaster 127.0.0.1 11079 17788:X 21 Apr 2022 00:34:34.509 # +switch-master mymaster 127.0.0.1 11079 127.0.0.1 11080 17788:X 21 Apr 2022 00:34:34.509 * +slave slave 127.0.0.1:11081 127.0.0.1 11081 @ mymaster 127.0.0.1 11080 17788:X 21 Apr 2022 00:34:34.509 * +slave slave 127.0.0.1:11079 127.0.0.1 11079 @ mymaster 127.0.0.1 11080 ``` 可以看出将从机11080切换为主机,重启主机,查看11079服务信息: ``` 127.0.0.1:11079> info replication # Replication role:slave master_host:127.0.0.1 master_port:11080 master_link_status:up master_last_io_seconds_ago:1 ``` 查看11080服务信息: ``` 127.0.0.1:11080> info replication # Replication role:master connected_slaves:2 slave0:ip=127.0.0.1,port=11081,state=online,offset=32883,lag=0 slave1:ip=127.0.0.1,port=11079,state=online,offset=32869,lag=0 master_failover_state:no-failover master_replid:e2db42e820ac3d927269cd59ef3bc775e7e5405f master_replid2:e504980f294d5cb1c873bf68464b81ce21294369 master_repl_offset:32883 second_repl_offset:12586 repl_backlog_active:1 repl_backlog_size:1048576 repl_backlog_first_byte_offset:225 repl_backlog_histlen:32659 ``` 发现上述已经自动将主机从11079切换为11080了 #### 11.5.3)复制延时 由于所有的写操作都是先在主机(Master)上操作,然后同步更新到从机(Slave)上,所以从主机(Master)同步到从机(Slave)有一定的延迟,当系统很繁忙的时候,延迟问题会更加严重,从机(Slave)机器数量的增加也会使这个问题更加严重。 #### 11.5.4)故障恢复(选举规则) ![输入图片说明](img/58.jpg) 1. 优先级在redis.conf中默认,值越小优先级越高; ``` replica-priority 100 ``` 2. 偏移量:指获得原主机数据最全的; 3. 每个redis实例启动后都会随机生成一个40位的runid; ## 十二)Redis集群 ### 12.1)存在问题 容量不够,redis如何进行扩容? 并发写操作, redis如何分摊? 另外,主从模式,薪火相传模式,主机宕机,导致ip地址发生变化,应用程序中配置需要修改对应的主机地址、端口等信息;之前通过代理主机来解决,但是redis3.0中提供了解决方案——就是无中心化集群配置。 代理主机如下图:【需要8台服务器】 ![输入图片说明](img/61.jpg) 无中心化集群如下图:【需要6台服务器】 ![输入图片说明](img/60.jpg) ### 12.2)集群简介 Redis 集群实现了对Redis的水平扩容,即启动N个redis节点,将整个数据库分布存储在这N个节点中,每个节点存储总数据的1/N。 Redis 集群通过分区(partition)来提供一定程度的可用性(availability): 即使集群中有一部分节点失效或者无法进行通讯, 集群也可以继续处理命令请求。 ### 12.3)模拟搭建Redis集群 #### 12.3.1)删除持久化数据 将相关目录下的rdb和aof文件都删除掉。 #### 12.3.2)创建实例 创建11079、11080、11081、11089、11090和11091总共6个实例 ##### 12.3.2.1)配置基本信息 创建相应的配置文件,以 redis11091.conf 为例 ``` include /root/myredis/redis.conf pidfile "/var/run/redis_11091.pid" port 11091 dbfilename "dump11091.rdb" # 打开集群模式 cluster-enabled yes # 设定节点配置文件名 cluster-config-file nodes-11091.conf # 设定节点失联时间,超过该时间(毫秒),集群自动进行主从切换 cluster-node-timeout 15000 ``` 依次修改其余配置文件: ``` -rw-r--r-- 1 root root 196 Apr 21 22:19 redis11079.conf -rw-r--r-- 1 root root 196 Apr 21 22:23 redis11080.conf -rw-r--r-- 1 root root 196 Apr 21 22:25 redis11081.conf -rw-r--r-- 1 root root 196 Apr 21 22:26 redis11089.conf -rw-r--r-- 1 root root 196 Apr 21 22:26 redis11090.conf -rw-r--r-- 1 root root 196 Apr 21 22:27 redis11091.conf ``` ##### 12.3.2.2)启动上述redis服务 ``` [root@VM-20-6-centos myredis]# ps -ef | grep redis root 17788 1 0 00:31 ? 00:02:22 redis-sentinel *:26379 [sentinel] root 31614 26503 0 22:31 pts/1 00:00:00 grep --color=auto redis [root@VM-20-6-centos myredis]# redis-server redis11079.conf [root@VM-20-6-centos myredis]# redis-server redis11080.conf [root@VM-20-6-centos myredis]# redis-server redis11081.conf [root@VM-20-6-centos myredis]# redis-server redis11089.conf [root@VM-20-6-centos myredis]# redis-server redis11090.conf [root@VM-20-6-centos myredis]# redis-server redis11091.conf [root@VM-20-6-centos myredis]# ll total 144 -rw-r--r-- 1 root root 114 Apr 21 22:56 nodes-11079.conf -rw-r--r-- 1 root root 114 Apr 21 22:56 nodes-11080.conf -rw-r--r-- 1 root root 114 Apr 21 22:56 nodes-11081.conf -rw-r--r-- 1 root root 114 Apr 21 22:56 nodes-11089.conf -rw-r--r-- 1 root root 114 Apr 21 22:56 nodes-11090.conf -rw-r--r-- 1 root root 114 Apr 21 22:56 nodes-11091.conf -rw-r--r-- 1 root root 319 Apr 21 22:56 redis11079.conf -rw-r--r-- 1 root root 196 Apr 21 22:23 redis11080.conf -rw-r--r-- 1 root root 319 Apr 21 22:56 redis11081.conf -rw-r--r-- 1 root root 196 Apr 21 22:26 redis11089.conf -rw-r--r-- 1 root root 196 Apr 21 22:26 redis11090.conf -rw-r--r-- 1 root root 196 Apr 21 22:27 redis11091.conf -rw-r--r-- 1 root root 93736 Apr 20 21:32 redis.conf -rw-r--r-- 1 root root 403 Apr 21 22:53 sentinel.conf [root@VM-20-6-centos myredis]# ps -ef | grep redis-server root 26748 1 0 22:56 ? 00:00:00 redis-server *:11079 [cluster] root 27786 1 0 22:56 ? 00:00:00 redis-server *:11080 [cluster] root 27792 1 0 22:56 ? 00:00:00 redis-server *:11081 [cluster] root 28825 1 0 22:56 ? 00:00:00 redis-server *:11089 [cluster] root 28831 1 0 22:56 ? 00:00:00 redis-server *:11090 [cluster] root 28837 1 0 22:56 ? 00:00:00 redis-server *:11091 [cluster] root 30895 26503 0 22:57 pts/1 00:00:00 grep --color=auto redis-server ``` ##### 12.3.2.4)将redis节点合成一个集群 组合之前,请确保所有redis实例启动后,nodes-xxxx.conf文件都生成正常 ``` [root@VM-20-6-centos myredis]# ll total 144 -rw-r--r-- 1 root root 114 Apr 21 22:56 nodes-11079.conf -rw-r--r-- 1 root root 114 Apr 21 22:56 nodes-11080.conf -rw-r--r-- 1 root root 114 Apr 21 22:56 nodes-11081.conf -rw-r--r-- 1 root root 114 Apr 21 22:56 nodes-11089.conf -rw-r--r-- 1 root root 114 Apr 21 22:56 nodes-11090.conf -rw-r--r-- 1 root root 114 Apr 21 22:56 nodes-11091.conf -rw-r--r-- 1 root root 319 Apr 21 22:56 redis11079.conf -rw-r--r-- 1 root root 196 Apr 21 22:23 redis11080.conf -rw-r--r-- 1 root root 319 Apr 21 22:56 redis11081.conf -rw-r--r-- 1 root root 196 Apr 21 22:26 redis11089.conf -rw-r--r-- 1 root root 196 Apr 21 22:26 redis11090.conf -rw-r--r-- 1 root root 196 Apr 21 22:27 redis11091.conf -rw-r--r-- 1 root root 93736 Apr 20 21:32 redis.conf -rw-r--r-- 1 root root 403 Apr 21 22:53 sentinel.conf ``` 进入redis目录下: ``` /root/redis/redis-6.2.6/src ``` 组成集群指令 ``` [root@VM-20-6-centos src]# redis-cli --cluster create --cluster-replicas 1 82.157.183.197:11079 82.157.183.197:11080 82.157.183.197:11081 82.157.183.197:11089 82.157.183.197:11090 82.157.183.197:11091 ``` 注意点: 1. 此处不要用127.0.0.1, 请用真实IP地址; 2. --replicas 1 采用最简单的方式配置集群,一台主机,一台从机,正好三组 组成集群: ```shell >>> Performing hash slots allocation on 6 nodes... Master[0] -> Slots 0 - 5460 Master[1] -> Slots 5461 - 10922 Master[2] -> Slots 10923 - 16383 Adding replica 82.157.183.197:11090 to 82.157.183.197:11079 Adding replica 82.157.183.197:11091 to 82.157.183.197:11080 Adding replica 82.157.183.197:11089 to 82.157.183.197:11081 >>> Trying to optimize slaves allocation for anti-affinity [WARNING] Some slaves are in the same host as their master M: 92a80c155bbec05d7ab822a724062c4a99b013b7 82.157.183.197:11079 slots:[0-5460] (5461 slots) master M: 7b85b2b99cb4e2f12ad1eba4865deedd71679740 82.157.183.197:11080 slots:[5461-10922] (5462 slots) master M: 0701a3bc4f4965d687b25636bd81875e3dc7b06c 82.157.183.197:11081 slots:[10923-16383] (5461 slots) master S: a059c850eb158fcefcaaa45ca789d9ba3e795533 82.157.183.197:11089 replicates 0701a3bc4f4965d687b25636bd81875e3dc7b06c S: 171d147c2240834bc1d22db24cba6fd15b36e950 82.157.183.197:11090 replicates 92a80c155bbec05d7ab822a724062c4a99b013b7 S: f6524917beae827c7a2cccb9bb2e162bd7a496ea 82.157.183.197:11091 replicates 7b85b2b99cb4e2f12ad1eba4865deedd71679740 Can I set the above configuration? (type 'yes' to accept): yes >>> Nodes configuration updated >>> Assign a different config epoch to each node >>> Sending CLUSTER MEET messages to join the cluster Waiting for the cluster to join . >>> Performing Cluster Check (using node 82.157.183.197:11079) M: 92a80c155bbec05d7ab822a724062c4a99b013b7 82.157.183.197:11079 slots:[0-5460] (5461 slots) master 1 additional replica(s) M: 7b85b2b99cb4e2f12ad1eba4865deedd71679740 82.157.183.197:11080 slots:[5461-10922] (5462 slots) master 1 additional replica(s) S: a059c850eb158fcefcaaa45ca789d9ba3e795533 82.157.183.197:11089 slots: (0 slots) slave replicates 7b85b2b99cb4e2f12ad1eba4865deedd71679740 S: 171d147c2240834bc1d22db24cba6fd15b36e950 82.157.183.197:11090 slots: (0 slots) slave replicates 0701a3bc4f4965d687b25636bd81875e3dc7b06c M: 0701a3bc4f4965d687b25636bd81875e3dc7b06c 82.157.183.197:11081 slots:[10923-16383] (5461 slots) master 1 additional replica(s) S: f6524917beae827c7a2cccb9bb2e162bd7a496ea 82.157.183.197:11091 slots: (0 slots) slave replicates 92a80c155bbec05d7ab822a724062c4a99b013b7 [OK] All nodes agree about slots configuration. >>> Check for open slots... >>> Check slots coverage... [OK] All 16384 slots covered. ``` ##### 12.3.2.5)采用集群策略连接redis服务 ``` [root@VM-20-6-centos src]# redis-cli -c -p 11080 127.0.0.1:11080> keys * (empty array) 127.0.0.1:11080> set k1 v1 -> Redirected to slot [12706] located at 82.157.183.197:11081 OK ``` ##### 12.3.2.6)查看集群信息 通过 cluster nodes 命令查看集群信息 ``` [root@VM-20-6-centos src]# redis-cli -c -h 82.157.183.197 -p 11080 82.157.183.197:11080> keys * (empty array) 82.157.183.197:11080> cluster nodes 92a80c155bbec05d7ab822a724062c4a99b013b7 82.157.183.197:11079@21079 master - 0 1650555294066 1 connected 0-5460 7b85b2b99cb4e2f12ad1eba4865deedd71679740 10.0.20.6:11080@21080 myself,master - 0 1650555292000 2 connected 5461-10922 a059c850eb158fcefcaaa45ca789d9ba3e795533 82.157.183.197:11089@21089 slave 7b85b2b99cb4e2f12ad1eba4865deedd71679740 0 1650555292056 2 connected 0701a3bc4f4965d687b25636bd81875e3dc7b06c 82.157.183.197:11081@21081 master - 0 1650555293062 3 connected 10923-16383 f6524917beae827c7a2cccb9bb2e162bd7a496ea 82.157.183.197:11091@21091 slave 92a80c155bbec05d7ab822a724062c4a99b013b7 0 1650555293000 1 connected 171d147c2240834bc1d22db24cba6fd15b36e950 82.157.183.197:11090@21090 slave 0701a3bc4f4965d687b25636bd81875e3dc7b06c 0 1650555292000 3 connected ``` #### 12.3.3)redis cluster 分配节点 一个集群至少要有三个主节点: 选项 --cluster-replicas 1 :表示希望为集群中的每个主节点创建一个从节点; 分配原则:尽量保证每个主数据库运行在不同的IP地址,每个从库和主库不在一个IP地址上。 #### 12.3.4)什么是slots 上述合成集群命令成功后: ``` [OK] All nodes agree about slots configuration. >>> Check for open slots... >>> Check slots coverage... [OK] All 16384 slots covered. ``` 16384 slots: 一个 Redis 集群包含 16384 个插槽(hash slot), 数据库中的每个键都属于这 16384 个插槽的其中一个, 集群使用公式 CRC16(key) % 16384 来计算键 key 属于哪个槽, 其中 CRC16(key) 语句用于计算键 key 的 CRC16 校验和 ; 集群中的每个节点负责处理一部分插槽。 举个例子: 如果一个集群可以有主节点, 其中: 1. 节点 A 负责处理 0 号至 5460 号插槽; 2. 节点 B 负责处理 5461 号至 10922 号插槽; 3. 节点 C 负责处理 10923 号至 16383 号插槽; ``` 82.157.183.197:11080> cluster nodes 92a80c155bbec05d7ab822a724062c4a99b013b7 82.157.183.197:11079@21079 master - 0 1650555294066 1 connected 0-5460 7b85b2b99cb4e2f12ad1eba4865deedd71679740 10.0.20.6:11080@21080 myself,master - 0 1650555292000 2 connected 5461-10922 a059c850eb158fcefcaaa45ca789d9ba3e795533 82.157.183.197:11089@21089 slave 7b85b2b99cb4e2f12ad1eba4865deedd71679740 0 1650555292056 2 connected 0701a3bc4f4965d687b25636bd81875e3dc7b06c 82.157.183.197:11081@21081 master - 0 1650555293062 3 connected 10923-16383 f6524917beae827c7a2cccb9bb2e162bd7a496ea 82.157.183.197:11091@21091 slave 92a80c155bbec05d7ab822a724062c4a99b013b7 0 1650555293000 1 connected 171d147c2240834bc1d22db24cba6fd15b36e950 82.157.183.197:11090@21090 slave 0701a3bc4f4965d687b25636bd81875e3dc7b06c 0 1650555292000 3 connected ``` #### 12.3.5)在集群中录入值 在redis-cli每次录入、查询键值,redis都会计算出该key应该送往的插槽,如果不是该客户端对应服务器的插槽,redis会报错,并告知应前往的redis实例地址和端口; redis-cli客户端提供了 –c 参数实现自动重定向; 如 redis-cli -c –p 11079 登入后,再录入、查询键值对可以自动重定向; 不在一个slot下的键值,是不能使用mget,mset等多键操作: ``` 82.157.183.197:11080> mset name luck age 20 address china (error) CROSSSLOT Keys in request don't hash to the same slot ``` 可以通过{}来定义组的概念,从而使key中{}内相同内容的键值对放到一个slot中去 ``` 82.157.183.197:11080> mset name{user} luck age{user} 20 address{user} china OK ``` #### 12.3.6)查询集群中的值 CLUSTER GETKEYSINSLOT 返回 count 个 slot 槽中的键。 ``` # 查询key值对应的插槽值 82.157.183.197:11080> cluster keyslot k1 (integer) 12706 # 计算连接的服务端对应的插槽值中包含几个key值 82.157.183.197:11080> set k3 v3 -> Redirected to slot [4576] located at 82.157.183.197:11079 OK 82.157.183.197:11079> cluster countkeysinslot 4576 (integer) 0 # 返回插槽值中的键值 82.157.183.197:11079> cluster getkeysinslot 4576 1 1) "k3" ``` #### 12.3.7)故障恢复 如果主节点下线,从节点能否自动升为主节点?注意:15秒超时 查看节点信息,停止11079服务: ``` # 查看节点信息 [root@VM-20-6-centos src]# redis-cli -c -h 82.157.183.197 -p 11080 82.157.183.197:11080> cluster nodes 92a80c155bbec05d7ab822a724062c4a99b013b7 82.157.183.197:11079@21079 master - 0 1650557318414 1 connected 0-5460 7b85b2b99cb4e2f12ad1eba4865deedd71679740 10.0.20.6:11080@21080 myself,master - 0 1650557313000 2 connected 5461-10922 a059c850eb158fcefcaaa45ca789d9ba3e795533 82.157.183.197:11089@21089 slave 7b85b2b99cb4e2f12ad1eba4865deedd71679740 0 1650557316406 2 connected 0701a3bc4f4965d687b25636bd81875e3dc7b06c 82.157.183.197:11081@21081 master - 0 1650557317000 3 connected 10923-16383 f6524917beae827c7a2cccb9bb2e162bd7a496ea 82.157.183.197:11091@21091 slave 92a80c155bbec05d7ab822a724062c4a99b013b7 0 1650557315402 1 connected 171d147c2240834bc1d22db24cba6fd15b36e950 82.157.183.197:11090@21090 slave 0701a3bc4f4965d687b25636bd81875e3dc7b06c 0 1650557317410 3 connected 82.157.183.197:11080> # 停止11079服务 [root@VM-20-6-centos src]# kill -9 411 [root@VM-20-6-centos src]# redis-cli -c -h 82.157.183.197 -p 11080 # 再次查看节点信息 82.157.183.197:11080> cluster nodes 92a80c155bbec05d7ab822a724062c4a99b013b7 82.157.183.197:11079@21079 master,fail - 1650557361597 1650557359000 1 connected 7b85b2b99cb4e2f12ad1eba4865deedd71679740 10.0.20.6:11080@21080 myself,master - 0 1650557456000 2 connected 5461-10922 a059c850eb158fcefcaaa45ca789d9ba3e795533 82.157.183.197:11089@21089 slave 7b85b2b99cb4e2f12ad1eba4865deedd71679740 0 1650557457265 2 connected 0701a3bc4f4965d687b25636bd81875e3dc7b06c 82.157.183.197:11081@21081 master - 0 1650557454000 3 connected 10923-16383 f6524917beae827c7a2cccb9bb2e162bd7a496ea 82.157.183.197:11091@21091 master - 0 1650557454243 7 connected 0-5460 171d147c2240834bc1d22db24cba6fd15b36e950 82.157.183.197:11090@21090 slave 0701a3bc4f4965d687b25636bd81875e3dc7b06c 0 1650557456260 3 connected ``` 发现在11079主机服务停止后,其从机11091自动升级为主机,再次重启11079 ``` # 重启11079 [root@VM-20-6-centos myredis]# redis-server redis11079.conf # 查看集群信息 82.157.183.197:11080> cluster nodes 92a80c155bbec05d7ab822a724062c4a99b013b7 82.157.183.197:11079@21079 slave f6524917beae827c7a2cccb9bb2e162bd7a496ea 0 1650557972312 7 connected 7b85b2b99cb4e2f12ad1eba4865deedd71679740 10.0.20.6:11080@21080 myself,master - 0 1650557968000 2 connected 5461-10922 a059c850eb158fcefcaaa45ca789d9ba3e795533 82.157.183.197:11089@21089 slave 7b85b2b99cb4e2f12ad1eba4865deedd71679740 0 1650557970303 2 connected 0701a3bc4f4965d687b25636bd81875e3dc7b06c 82.157.183.197:11081@21081 master - 0 1650557969298 3 connected 10923-16383 f6524917beae827c7a2cccb9bb2e162bd7a496ea 82.157.183.197:11091@21091 master - 0 1650557971000 7 connected 0-5460 171d147c2240834bc1d22db24cba6fd15b36e950 82.157.183.197:11090@21090 slave 0701a3bc4f4965d687b25636bd81875e3dc7b06c 0 1650557971307 3 connected ``` 11079重启,11091依旧是主机,1107后变为从机 如果所有某一段插槽的主从节点都宕掉,redis服务是否还能继续? 1. 取决于redis.conf中的参数 cluster-require-full-coverage 2. 如果某一段插槽的主从都挂掉,而cluster-require-full-coverage 为yes ,那么 ,整个集群都挂掉; 3. 如果某一段插槽的主从都挂掉,而cluster-require-full-coverage 为no ,那么,该插槽数据全都不能使用,也无法存储。 #### 12.3.8)集群的Jedis开发 即使连接的不是主机,集群会自动切换主机存储,主机写,从机读; 无中心化主从集群,无论从哪台主机写的数据,其他主机上都能读到数据。 示例代码如下: ``` public class RedisClusterDemo { public static void main(String[] args) { //创建redis集群对象 HostAndPort hostAndPort = new HostAndPort("82.157.183.197", 11079); JedisCluster jedisCluster = new JedisCluster(hostAndPort); //进行操作 jedisCluster.set("b1","value1"); String value = jedisCluster.get("b1"); System.out.println("value: "+value); // 输出:value: value1 jedisCluster.close(); } } ``` #### 12.3.9)Redis 集群的优势与不足 优点: 1. 实现扩容; 2. 分摊压力; 3. 无中心配置相对简单; 不足: 1. 多键操作是不被支持的 ; 2. 多键的Redis事务是不被支持的,lua脚本不被支持; 3. 由于集群方案出现较晚,很多公司已经采用了其他的集群方案,而代理或者客户端分片的方案想要迁移至redis cluster,需要整体迁移而不是逐步过渡,复杂度较大。 ## 十三)Redis缓存问题解决 ### 13.1)缓存穿透 #### 13.1.1)问题描述 key对应的数据在数据源并不存在,每次针对此key的请求从缓存获取不到,请求都会压到数据源,从而可能压垮数据源;比如用一个不存在的用户id获取用户信息,不论缓存还是数据库都没有,若黑客利用此漏洞进行攻击可能压垮数据库。 ![输入图片说明](img/62.jpg) **缓存穿透现象**:1) 应用服务器压力变大 2)redis命中率降低 3)一直访问数据库查询信息从而使数据库崩溃 **缓存穿透原因**:1)redis查询不到数据 2)出现很多非正常url访问【恶意攻击】 #### 13.1.2)解决方案 一个一定不存在缓存及查询不到的数据,由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据则不写入缓存,这将导致这个不存在的数据每次请求都要到存储层去查询,失去了缓存的意义。 解决方案: 1. **对空值缓存**:如果一个查询返回的数据为空(不管是数据是否不存在),仍然把这个空结果(null)进行缓存,设置空结果的过期时间会很短,最长不超过五分钟;【临时方案】 2. **设置可访问的名单(白名单)**:使用bitmaps类型定义一个可以访问的名单,名单id作为bitmaps的偏移量,每次访问和bitmap里面的id进行比较,如果访问id不在bitmaps里面,进行拦截,不允许访问;【效率不高】 3. **采用布隆过滤器**:将所有可能存在的数据哈希到一个足够大的bitmaps中,一个一定不存在的数据会被这个bitmaps拦截掉,从而避免了对底层存储系统的查询压力; > 布隆过滤器(Bloom Filter)是1970年由布隆提出的。它实际上是一个很长的二进制向量(位图)和一系列随机映射函数(哈希函数);布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难 > 4. **进行实时监控**:当发现Redis的命中率开始急速降低,需要排查访问对象和访问的数据,和运维人员配合,可以设置黑名单限制服务 ### 13.2)缓存击穿 #### 13.2.1)问题描述 key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候**大并发的请求可能会瞬间把后端DB压垮**。 ![输入图片说明](img/63.jpg) **缓存击穿现象**:1)数据库访问压力瞬时增加 2)redis里面没有出现大量key过期 3)redis正常运行 **缓存击穿原因**: redis中的某个key过期了,大量并发请求这个key,发现缓存过期后从DB加载致使DB奔溃 #### 13.2.2)解决方案 key可能会在某些时间点被超高并发地访问,是一种非常“热点”的数据。这个时候,需要考虑一个问题:缓存被“击穿”的问题。 解决方案: 1. 预先设置热门数据:在redis高峰访问之前,把一些热门数据提前存入到redis里面,加大这些热门数据key的时长 2. 实时调整:现场监控哪些数据热门,实时调整key的过期时长 3. 使用锁: - 就是在缓存失效的时候(判断拿出来的值为空),不是立即去load db; - 先使用缓存工具的某些带成功操作返回值的操作(比如Redis的SETNX)去set一个mutex key; - 当操作返回成功时,再进行load db的操作,并回设缓存,最后删除mutex key; - 当操作返回失败,证明有线程在load db,当前线程睡眠一段时间再重试整个get缓存的方法。 ![输入图片说明](img/64.jpg) ### 13.3)缓存雪崩 #### 13.3.1)问题描述 key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮。 缓存雪崩与缓存击穿的区别在于:缓存雪崩针对很多key缓存,缓存击穿则是某一个key; 正常访问如下图: ![输入图片说明](img/67.jpg) 缓存雪崩瞬间如下图: ![输入图片说明](img/66.jpg) **缓存雪崩现象**:1)数据库压力变大 2)服务器奔溃 **缓存雪崩原因**:1)在极少时间内,出现大量key的集中过期情况,瞬间把DB压垮 #### 13.3.2)解决方案 缓存失效时的雪崩效应对底层系统的冲击非常可怕! 解决方案: 1. 构建多级缓存架构:nginx缓存 + redis缓存 +其他缓存(ehcache等);【架构复杂】 2. 使用锁或队列:用加锁或者队列的方式保证来保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上;【不适用高并发情况】 3. 设置过期标志更新缓存:记录缓存数据是否过期(设置提前量),如果过期会触发通知另外的线程在后台去更新实际key的缓存; 4. 将缓存失效时间分散开:比如我们可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。 ## 十四)Redis实现分布式锁 ### 14.1)问题描述 随着业务发展的需要,原单体单机部署的系统被演化成分布式集群系统后,由于分布式系统多线程、多进程并且分布在不同机器上,这将使原单机部署情况下的并发控制锁策略失效,单纯的Java API并不能提供分布式锁的能力。 为了解决这个问题就需要一种**跨JVM的互斥机制来控制共享资源的访问**,这就是分布式锁要解决的问题,分布式锁主流的实现方案: 1. 基于数据库实现分布式锁 2. 基于缓存(Redis等) 3. 基于Zookeeper 每一种分布式锁解决方案都有各自的优缺点: 1. 性能:redis最高 2. 可靠性:zookeeper最高 下面基于redis实现分布式锁。 ### 14.2)使用redis实现分布式锁 redis:命令 ``` set sku:1:info “OK” NX PX 10000 ``` EX second :设置键的过期时间为 second 秒, SET key value EX second 效果等同于 SETEX key second value ; PX millisecond :设置键的过期时间为 millisecond 毫秒。 SET key value PX millisecond 效果等同于 PSETEX key millisecond value; NX :只在键不存在时,才对键进行设置操作,SET key value NX 效果等同于 SETNX key value ; XX :只在键已经存在时,才对键进行设置操作。 ``` [root@VM-20-6-centos bin]# redis-cli -p 11079 127.0.0.1:11079> setnx user 10 (integer) 1 127.0.0.1:11079> setnx user 20 (integer) 0 ``` 通过 setnx 添加锁,不能再次进行修改,想要再次进行赋值,则删除锁后再次赋值 ``` 127.0.0.1:11079> del user (integer) 1 127.0.0.1:11079> setnx user 20 (integer) 1 127.0.0.1:11079> setnx user 30 (integer) 0 ``` 执行锁的过程如下图: ![输入图片说明](img/68.jpg) 1. 多个客户端同时获取锁(setnx); 2. 获取成功,执行业务逻辑{从db获取数据,放入缓存},执行完成释放锁(del); 3. 其他客户端等待重试 ### 14.3)优化之设置锁的过期时间 设置过期时间有两种方式: 1. 首先想到通过expire设置过期时间(缺乏原子性:如果在setnx和expire之间出现异常,锁也无法释放) 2. 在set时指定过期时间(推荐) 为避免锁一直不释放,影响重新赋值,添加锁的过期时间,过期后自动释放:expire user 20-- 设置20秒过期 ``` 127.0.0.1:11079> del user (integer) 1 127.0.0.1:11079> setnx user 20 (integer) 1 127.0.0.1:11079> expire user 20 (integer) 1 127.0.0.1:11079> ttl user (integer) 17 127.0.0.1:11079> setnx user 30 (integer) 0 127.0.0.1:11079> ttl user (integer) -2 127.0.0.1:11079> setnx user 30 (integer) 1 ``` 为避免在加锁后出现异常,无法添加过期时间的情况,在设置加锁时就设置好过期时间,nx :加锁;ex 20 -- 设置20秒过期 ``` 127.0.0.1:11079> set user 10 nx ex 20 OK 127.0.0.1:11079> ttl user (integer) 13 127.0.0.1:11079> setnx user 30 (integer) 0 127.0.0.1:11079> ttl user (integer) -2 127.0.0.1:11079> setnx user 30 (integer) 1 ``` 流程图如下: ![输入图片说明](img/69.jpg) 存在问题:可能会释放其他服务器的锁。 场景:如果业务逻辑的执行时间是7s,执行流程如下: 1. index1业务逻辑没执行完,3秒后锁被自动释放; 2. index2获取到锁,执行业务逻辑,3秒后锁被自动释放; 3. index3获取到锁,执行业务逻辑; 4. index1业务逻辑执行完成,开始调用del释放锁,这时释放的是index3的锁,导致index3的业务只执行1s就被别人释放,最终等于没锁的情况。 讲解如下图:【就是a手动释放了b的锁】 ![输入图片说明](img/70.jpg) 解决方案:setnx获取锁时,设置一个指定的唯一值(例如:uuid);释放前获取这个值,判断是否自己的锁 ### 14.4)优化之UUID防误删 流程如下图: ![输入图片说明](img/71.jpg) 添加锁时使用UUID表示不同的操作; 释放锁时,判断当前UUID和要释放锁的UUID是否一致,一致才可以释放锁 ### 14.5)使用代码实现分布式锁 在上述 RedisTestController.java 中添加测试方法: ```java // Redis 设置分布式锁测试 @GetMapping("testLock") public void testLock(){ String uuid = UUID.randomUUID().toString(); //1获取锁,setne,设置锁过期时间为3秒,添加UUID作为当前锁的标识 Boolean lock = redisTemplate.opsForValue().setIfAbsent("lock", uuid,3, TimeUnit.SECONDS); //2获取锁成功、查询num的值 if(lock){ Object value = redisTemplate.opsForValue().get("num"); //2.1判断num为空return if(StringUtils.isEmpty(value)){ return; } //2.2有值就转成成int int num = Integer.parseInt(value+""); //2.3把redis的num加1 redisTemplate.opsForValue().set("num", ++num); //2.4释放锁,del //释放锁时判断比较uuid值是否一样,一样才释放锁 String lockUuid = (String)redisTemplate.opsForValue().get("lock"); if(lockUuid.equals(uuid)) { redisTemplate.delete("lock"); } }else{ //3获取锁失败、每隔0.1秒再获取 try { Thread.sleep(100); testLock(); } catch (InterruptedException e) { e.printStackTrace(); } } } // 浏览器访问:http://127.0.0.1:8080/redisTest/testLock ``` 使用 ab 并发测试,有多少个并发量就输出多少值,设置并发为1000: 重启,服务集群,通过网关压力测试:ab -n 1000 -c 100 http://127.0.0.1:8080/test/testLock ``` 127.0.0.1:11079> keys * 1) "num" 127.0.0.1:11079> get num "0" 127.0.0.1:11079> get num "1000" ``` 存在问题:删除操作缺乏原子性 场景: 1. index1执行删除时,查询到的lock值确实和uuid相等 ``` uuid=v1 set(lock,uuid) if(uuid.equals((String)redisTemplate.opsForValue().get("lock"))); ``` 2. index1执行删除前,lock刚好过期时间已到,被redis自动释放,在redis中没有了lock,没有了锁; 3. index2获取了lock,index2线程获取到了cpu的资源,开始执行方法 ``` uuid=v2 set(lock,uuid); ``` 4. index1执行删除,此时会把index2的lock删除,index1 因为已经在方法中了,所以不需要重新上锁。index1有执行的权限。index1已经比较完成了,这个时候,开始执行 ``` this.redisTemplate.delete("lock") ``` 删除的index2的锁! 过程如下: ![输入图片说明](img/72.jpg) 问题总结:【没有保证删除锁操作的原子性】 正确流程: 1)a:上锁 —> 操作 —> 释放锁 —> 删除操作 2)a执行完成后,b再执行上述流程 当前流程: 1)a:上锁 —> 操作 —> 释放锁 (刚开始执行,未完成) 2)进入到 b:上锁—> 操作 3)a:释放锁 (执行完成,但此时释放的不是a锁,而是b锁) ### 14.6)优化之LUA脚本保证删除的原子性 在上述 RedisTestController.java 中添加测试方法: ```java // Redis 设置分布式锁添加LUA脚本保证删除的原子性 @GetMapping("testLockLua") public void testLockLua() { //1 声明一个uuid ,将做为一个value 放入我们的key所对应的值中 String uuid = UUID.randomUUID().toString(); //2 定义一个锁:lua 脚本可以使用同一把锁,来实现删除! String skuId = "25"; // 访问skuId 为25号的商品 100008348542 String locKey = "lock:" + skuId; // 锁住的是每个商品的数据 // 3 获取锁 Boolean lock = redisTemplate.opsForValue().setIfAbsent(locKey, uuid, 3, TimeUnit.SECONDS); // 第一种: lock 与过期时间中间不写任何的代码。 // redisTemplate.expire("lock",10, TimeUnit.SECONDS);//设置过期时间 // 如果true if (lock) { // 执行的业务逻辑开始 // 获取缓存中的num 数据 Object value = redisTemplate.opsForValue().get("num"); // 如果是空直接返回 if (StringUtils.isEmpty(value)) { return; } // 不是空 如果说在这出现了异常! 那么delete 就删除失败! 也就是说锁永远存在! int num = Integer.parseInt(value + ""); // 使num 每次+1 放入缓存 redisTemplate.opsForValue().set("num", String.valueOf(++num)); /*使用lua脚本来锁*/ // 定义lua 脚本 ,判断KEY和UUID是否一样,一样则调用删除方法,不一样则返回0 String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end"; // 使用redis执行lua执行 DefaultRedisScript redisScript = new DefaultRedisScript<>(); redisScript.setScriptText(script); // 设置一下返回值类型 为Long // 因为删除判断的时候,返回的0,给其封装为数据类型。如果不封装那么默认返回String 类型, // 那么返回字符串与0 会有发生错误。 redisScript.setResultType(Long.class); // 第一个要是script 脚本 ,第二个需要判断的key,第三个就是key所对应的值。 redisTemplate.execute(redisScript, Arrays.asList(locKey), uuid); } else { // 其他线程等待 try { // 睡眠 Thread.sleep(1000); // 睡醒了之后,调用方法。 testLockLua(); } catch (InterruptedException e) { e.printStackTrace(); } } } ``` 说明: ![输入图片说明](img/73.jpg) ### 14.7)总结 #### 14.7.1)加锁 ```java // 1. 从redis中获取锁,set k1 v1 px 20000 nx String uuid = UUID.randomUUID().toString(); Boolean lock = this.redisTemplate.opsForValue().setIfAbsent("lock", uuid, 2, TimeUnit.SECONDS); ``` #### 14.7.2)使用lua释放锁 ```java // 2. 释放锁 del String script = "if redis.call('get', KEYS[1]) == ARGV[1] then return redis.call('del', KEYS[1]) else return 0 end"; // 设置lua脚本返回的数据类型 DefaultRedisScript redisScript = new DefaultRedisScript<>(); // 设置lua脚本返回类型为Long redisScript.setResultType(Long.class); redisScript.setScriptText(script); redisTemplate.execute(redisScript, Arrays.asList("lock"),uuid); ``` #### 14.7.3)重试 ``` Thread.sleep(500); testLock(); ``` 为了确保分布式锁可用,我们至少要确保锁的实现同时满足以下四个条件: - 互斥性。在任意时刻,只有一个客户端能持有锁; - 不会发生死锁。即使有一个客户端在持有锁的期间崩溃而没有主动解锁,也能保证后续其他客户端能加锁; - 解铃还须系铃人。加锁和解锁必须是同一个客户端,客户端自己不能把别人加的锁给解了; - 加锁和解锁必须具有原子性。 ## 十五)Redis6.0新功能 ### 15.1)ACL #### 15.1.1)简介 Redis ACL是Access Control List(访问控制列表)的缩写,该功能允许根据可以执行的命令和可以访问的键来限制某些连接。 在Redis 5版本之前,Redis 安全规则只有密码控制 还有通过rename 来调整高危命令比如 flushdb , KEYS* , shutdown 等。Redis 6 则提供ACL的功能对用户进行更细粒度的权限控制 : 1. 接入权限:用户名和密码 2. 可以执行的命令 3. 可以操作的 KEY 参考官网:https://redis.io/topics/acl #### 15.1.2)命令 ##### 15.1.2.1)使用acl list命令展现用户权限列表 数据说明: ``` 127.0.0.1:11079> acl list 1) "user default on nopass ~* &* +@all" # default:用户名 on:是否启用(on/off) nopass:无密码 ~*:可操作的key @all:可执行的命令 ``` ##### 15.1.2.2)使用acl cat命令 (1)查看添加权限指令类别 ``` 127.0.0.1:11079> acl cat 1) "keyspace" 2) "read" 3) "write" 4) "set" 5) "sortedset" 6) "list" 7) "hash" 8) "string" 9) "bitmap" 10) "hyperloglog" 11) "geo" 12) "stream" 13) "pubsub" 14) "admin" 15) "fast" 16) "slow" 17) "blocking" 18) "dangerous" 19) "connection" 20) "transaction" 21) "scripting" ``` (2)加参数类型名可以查看类型下具体命令 ``` 127.0.0.1:11079> acl cat string 1) "psetex" 2) "incrbyfloat" 3) "mget" 4) "strlen" 5) "append" 6) "decrby" 7) "mset" 8) "incr" 9) "get" 10) "getset" 11) "decr" 12) "substr" 13) "stralgo" 14) "set" 15) "incrby" 16) "setex" 17) "getrange" 18) "setrange" 19) "msetnx" 20) "setnx" 21) "getdel" 22) "getex" ``` ##### 15.1.2.3)使用acl whoami命令查看当前用户 ``` 127.0.0.1:11079> acl whoami "default" ``` ##### 15.1.2.3)使用aclsetuser命令创建和编辑用户ACL (1)ACL规则 下面是有效ACL规则的列表。某些规则只是用于激活或删除标志,或对用户ACL执行给定更改的单个单词。其他规则是字符前缀,它们与命令或类别名称、键模式等连接在一起。 | ACL规则 | | | | -------------------- | ------------ | ---------------------------------------------------- | | 类型 | 参数 | 说明 | | 启动和禁用用户 | on | 激活某用户账号 | | | off | 禁用某用户账号【已验证的连接仍然可以工作】 | | 权限的添加删除 | + | 将指令添加到用户可以调用的指令列表中 | | | - | 从用户可执行指令列表移除指令 | | | +@ | 添加该类别中用户要调用的所有指令,有效类别为@admin等 | | | -@ | 从用户可调用指令中移除类别 | | | allcommands | +@all的别名 | | | nocommand | -@all的别名 | | 可操作键的添加或删除 | ~ | 添加可作为用户可操作的键的模式。例如~*允许所有的键 | (2)通过命令创建新用户默认权限 ``` 127.0.0.1:11079> acl setuser user1 OK 127.0.0.1:11079> acl list 1) "user default on nopass ~* &* +@all" 2) "user user1 off &* -@all" ``` (3)设置有用户名、密码、ACL权限、并启用的用户 ``` 127.0.0.1:11079> acl setuser user2 on >password ~cached:* +get OK 127.0.0.1:11079> acl list 1) "user default on nopass ~* &* +@all" 2) "user user1 off &* -@all" 3) "user user2 on #5e884898da28047151d0e56f8dc6292773603d0d6aabbdd62a11ef721d1542d8 ~cached:* &* -@all +get" ``` (4) 切换用户,验证权限 ``` 127.0.0.1:11079> acl whoami "default" 127.0.0.1:11079> auth user2 password OK 127.0.0.1:11079> acl whoami (error) NOPERM this user has no permissions to run the 'acl' command or its subcommand 127.0.0.1:11079> get foo (error) NOPERM this user has no permissions to access one of the keys used as arguments 127.0.0.1:11079> get cached:1121 (nil) 127.0.0.1:11079> set cacged:1121 1121 (error) NOPERM this user has no permissions to run the 'set' command or its subcommand ``` ### 15.2)IO多线程 #### 15.2.1)简介 Redis6终于支撑多线程了,告别单线程了吗? IO多线程其实指**客户端交互部分的网络IO交互处理模块多线程,而非执行命令多线程**。 Redis6执行命令依然是单线程。 #### 15.2.2)原理架构 Redis 6 加入多线程,但跟 Memcached 这种从 IO处理到数据访问多线程的实现模式有些差异。 Redis 的多线程部分只是用来处理网络数据的读写和协议解析,执行命令仍然是单线程。 之所以这么设计是不想因为多线程而变得复杂,需要去控制 key、lua、事务,LPUSH/LPOP 等等的并发问题。 整体的设计大体如下: ![输入图片说明](img/74.jpg) 另外,多线程IO默认也是不开启的,需要再配置文件中配置 ``` io-threads-do-reads yes io-threads 4 ``` ### 15.3)Redis新功能持续关注 Redis6新功能还有: 1、RESP3新的 Redis 通信协议:优化服务端与客户端之间通信; 2、Client side caching客户端缓存:基于 RESP3 协议实现的客户端缓存功能。为了进一步提升缓存的性能,将客户端经常访问的数据cache到客户端。减少TCP网络交互; 3、Proxy集群代理模式:Proxy 功能,让 Cluster 拥有像单实例一样的接入方式,降低大家使用cluster的门槛。不过需要注意的是代理不改变 Cluster 的功能限制,不支持的命令还是不会支持,比如跨 slot 的多Key操作; 4、Modules API:Redis 6中模块API开发进展非常大,因为Redis Labs为了开发复杂的功能,从一开始就用上Redis模块。Redis可以变成一个框架,利用Modules来构建不同系统,而不需要从头开始写然后还要BSD许可。Redis一开始就是一个向编写各种系统开放的平台。