NoSQL数据库

概述

NoSQL(NoSQL = Not Only SQL ),意即“不仅仅是SQL”,泛指非关系型的数据库

NoSQL 不依赖业务逻辑方式存储,而以简单的key-value模式存储。因此大大的增加了数据库的扩展能力。

  • 不遵循SQL标准
  • 不支持ACID
  • 远超于SQL的性能

适用场景

  • 对数据高并发的读写
  • 海量数据的读写
  • 对数据高可拓展性

不适用场景

  • 需要事务支持
  • 基于sql的结构化查询存储,处理复杂的关系,需要级联查询

Redis

概述

  • Redis是一个开源key-value存储系统。
  • 和Memcached类似,它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)、zset(sorted set —有序集合)和hash(哈希类型)。
  • 这些数据类型都支持push/pop、add/remove及取交集并集和差集及更丰富的操作,而且这些操作都是原子性的。
  • 在此基础上,Redis支持各种不同方式的排序
  • 与memcached一样,为了保证效率,数据都是缓存在内存中。
  • 区别的是Redis会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件。
  • 并且在此基础上实现了master-slave(主从)同步。

应用场景

  1. 配合关系型数据库做高速缓存
    • 高频次,热门访问的数据,降低数据库IO
    • 分布式架构,做session共享
  2. 多样的数据结构存储持久化数据
    • 最新N个数据 ==> 通过List实现按自然时间排序的数据
    • 排行榜,Top N ==> 利用zset(有序集合)
    • 时效性的数据,比如手机验证码 ==> Expire过期
    • 计数器,秒杀 ==> 原子性,自增方法INCR、DECR
    • 去除大量数据中重复数据 ==> 利用set集合
    • 构建队列 ==> 利用list集合
    • 发布消息与订阅 ==> pub/sub模式

安装

Redis官方网站,本次安装版本为6.2.7,并且在Linux(CentOS 7.6)环境下安装。

  1. 下载安装gcc编译器

    1
    2
    yum install gcc
    gcc --version # 查看版本
  2. 解压

    1
    tar -zxvf redis-6.2.7.tar.gz # 压缩包所在目录下执行,此次在/opt下
  3. 进入目录

    1
    cd redis-6.2.7
  4. 执行make

    1
    make
  5. 执行make install

    1
    make install

默认安装目录为:/usr/local/bin

查看目录:

  • redis-benchmark:性能测试工具,可以在自己本子运行,看看自己本子性能如何
  • redis-check-aof:修复有问题的AOF文件,rdb和aof后面讲
  • redis-check-dump:修复有问题的dump.rdb文件
  • redis-sentinel:Redis集群使用
  • redis-server:Redis服务器启动命令
  • redis-cli:客户端,操作入口

前台启动(不推荐 )

前台启动,命令行窗口不能关闭,否则服务器停止

1
[root@instance-jwzbgijw bin]# redis-server # 安装目录下

后台启动(推荐)

  1. 进入解压后的redis目录

    1
    cd /opt/redis-6.2.7
  2. 拷贝redis.conf

    1
    cp redis.conf  /etc/redis.conf  # 拷贝到哪无所谓
  3. 修改redis.conf,将daemonize no 改成 yes

    1
    vi /etc/redis.conf

    image-20220711193405001

  4. 启动

    1
    redis-server /etc/redis.conf
  5. 查看进程

    1
    ps -ef | grep redis
  6. 客户端连接redis

    1
    redis-cli
  7. 测试

    1
    2
    127.0.0.1:6379> ping
    PONG
  8. 关闭redis

    1
    2
    3
    4
    127.0.0.1:6379> shutdown 
    # 或者
    127.0.0.1:6379> exit
    [root@instance-jwzbgijw etc]# kill -9 6379

Redis相关知识

  • 默认16个数据库,类似数组下标从0开始,初始默认使用0号库
  • 统一密码管理,所有库同样密码。
  • config set requirepass yourpass【设置密码】(暂时的)
  • config get requirepass【查看密码】

键(key)

命令 解释
keys * 查看当前库所有key (匹配:keys *1)
exists key 判断某个key是否存在
type key 查看你的key是什么类型
del key 删除指定的key数据
unlink key 根据value选择非阻塞删除,仅将keys从keyspace元数据中删除,真正的删除会在后续异步操作。
expire key 10 10秒钟,为给定的key设置过期时间
ttl key 查看还有多少秒过期,-1表示永不过期,-2表示已过期
select 命令切换数据库
dbsize 查看当前数据库的key的数量
flushdb 清空当前库
flushall 通杀全部库

常用五大数据类型

redis常见数据类型操作命令:http://www.redis.cn/commands.html

String(字符串)

简介

String是Redis最基本的类型,你可以理解成与Memcached一模一样的类型,一个key对应一个value。

String类型是二进制安全的。意味着Redis的string可以包含任何数据。比如jpg图片或者序列化的对象。

String类型是Redis最基本的数据类型,一个Redis中字符串value最多可以是512M

常用命令

命令 解释
set key value 添加键值对,之前如果存在相同key,会覆盖
get key 查询对应键值
append key value 将给定的value追加到原值的末尾
strlen key 获得值的长度
setnx key value 只有在 key 不存在时,设置 key 的值
incr key 将 key 中储存的数字值增1,只能对数字值操作,如果为空,新增值为1
decr key 将 key 中储存的数字值减1,只能对数字值操作,如果为空,新增值为-1
incrby / decrby key <步长> 将 key 中储存的数字值增减。自定义步长
mset key1 value1 key2 value2 ….. 同时设置一个或多个 key-value 对
mget key1 key2 key3 ….. 同时获取一个或多个 value
msetnx key1 value1 key2 value2 ….. 同时设置一个或多个 key-value 对,当且仅当所有给定 key 都不存在。
getrange key <起始位置> <结束位置> 获得值的范围,类似java中的substring
setrange key <起始位置> value 用value覆写key所储存的字符串值,从<起始位置>开始(索引从0开始)
setex key <过期时间> value 设置键值的同时,设置过期时间,单位秒。
getset key value 以新换旧,设置了新值同时获得旧值

incr/decr操作是原子性的(不是事务的那个原子性),所谓原子操作是指不会被线程调度机制打断的操作。

这种操作一旦开始,就一直运行到结束,中间不会有任何 context switch (切换到另一个线程)。

  1. 在单线程中, 能够在单条指令中完成的操作都可以认为是”原子操作”,因为中断只能发生于指令之间。
  2. 在多线程中,不能被其它进程(线程)打断的操作就叫原子操作。

Redis单命令的原子性主要得益于Redis的单线程。

案例:

java中的i++是否是原子操作?不是

i=0;两个线程分别对i进行++100次,值是多少? 2~200

数据结构

String的数据结构为简单动态字符串(Simple Dynamic String,缩写SDS)。是可以修改的字符串,内部结构实现上类似于Java的ArrayList,采用预分配冗余空间的方式来减少内存的频繁分配.

image-20220711204902472

如图中所示,内部为当前字符串实际分配的空间capacity一般要高于实际字符串长度len。当字符串长度小于1M时,扩容都是加倍现有的空间,如果超过1M,扩容时一次只会多扩1M的空间。需要注意的是字符串最大长度为512M。

List(列表)

简介

单键多值
Redis 列表是简单的字符串列表,按照插入顺序排序。你可以添加一个元素到列表的头部(左边)或者尾部(右边)。

常用命令

命令 解释
lpush/rpush key value1 value2 value3 …. 从左边/右边插入一个或多个值
lpop/rpop key 从左边/右边吐出一个值。值在键在,值光键亡
rpoplpush key1 key2 从key1列表右边吐出一个值,插到key2列表左边
lrange key start stop 按照索引下标获得元素(从左到右)
lrange key 0 -1 0左边第一个,-1右边第一个,(表示获取所有)
lindex key index 按照索引下标获得元素(从左到右)
llen key 获得列表长度
linsert key before value newvalue 在value的前面插入newvalue
lrem key n value 从左边删除n个value(从左到右)
lset key index value 将列表key下标为index的值替换成value

数据结构

它的底层实际是个双向链表,对两端的操作性能很高,通过索引下标的操作中间的节点性能会较差。

image-20220711210006908

List的数据结构为快速链表quickList。

首先在列表元素较少的情况下会使用一块连续的内存存储,这个结构是ziplist,也即是压缩列表。

它将所有的元素紧挨着一起存储,分配的是一块连续的内存。

当数据量比较多的时候才会改成quicklist。

因为普通的链表需要的附加指针空间太大,会比较浪费空间。比如这个列表里存的只是int类型的数据,结构上还需要两个额外的指针prev和next。

Redis将链表和ziplist结合起来组成了quicklist。也就是将多个ziplist使用双向指针串起来使用。这样既满足了快速的插入删除性能,又不会出现太大的空间冗余。

image-20220711211300014

Set(集合)

简介

Redis set对外提供的功能与list类似是一个列表的功能,特殊之处在于set是可以自动排重的,当你需要存储一个列表数据,又不希望出现重复数据时,set是一个很好的选择,并且set提供了判断某个成员是否在一个set集合内的重要接口,这个也是list所不能提供的。

Redis的Set是string类型的无序集合。它底层其实是一个value为null的hash表,所以添加,删除,查找的复杂度都是O(1)

一个算法,随着数据的增加,执行时间的长短,如果是O(1),数据增加,查找数据的时间不变

常用命令

命令 解释
sadd key value1 value2 ….. 将一个或多个 member 元素加入到集合 key 中,已经存在的 member 元素将被忽略
smembers key 取出该集合的所有值
sismember key value 判断集合key是否含有value值,有1,没有0
scard key 返回该集合的元素个数
srem key value1 value2 …. 删除集合中的某些元素
spop key 随机从该集合中吐出一个值
srandmember key n 随机从该集合中取出n个值。不会从集合中删除
smove source destination value 把集合中一个值从一个集合移动到另一个集合
sinter key1 key2 返回两个集合的交集元素
sunion key1 key2 返回两个集合的并集元素
sdiff key1 key2 返回两个集合的差集元素(key1中且不在key2中)

数据结构

Set数据结构是dict字典,字典是用哈希表实现的。

Java中HashSet的内部实现使用的是HashMap,只不过所有的value都指向同一个对象。Redis的set结构也是一样,它的内部也使用hash结构,所有的value都指向同一个内部值。

Hash(哈希)

简介

Redis hash 是一个键值对集合。

Redis hash是一个string类型的field和value的映射表,hash特别适合用于存储对象。

类似Java里面的Map

用户ID为查找的key,存储的value用户对象包含姓名,年龄,生日等信息,如果用普通的key/value结构来存储,主要有以下2种存储方式:

image-20220711213818599

缺点:每次修改用户的某个属性需要,先反序列化改好后再序列化回去。开销较大。

image-20220711214238784

缺点:用户ID数据冗余。

image-20220711215214073

通过key(用户ID)+field(属性标签)就可以操作对应属性数据了,既不需要重复存储数据,也不会带来序列化和并发修改控制的问题。

常用命令

命令 解释
hset key field value 给key集合中的field键赋值value
hget key1 field 从key1集合field取出 value
hmset key1 field1 value1 field2 value2 … 批量设置hash的值
hexists key1 field 查看哈希表key中,给定域field是否存在
hkeys key 列出该hash集合的所有field
hvals key 列出该hash集合的所有value
hincrby key field increment 为哈希表key中的域field的值加上增量 1 -1
hsetnx key field value 将哈希表key中的域field的值设置为value,当且仅当域field不存在

数据结构

Hash类型对应的数据结构是两种:ziplist(压缩列表),hashtable(哈希表)。当field-value长度较短且个数较少时,使用ziplist,否则使用hashtable。

Zset(有序集合)

简介

Redis有序集合zset与普通集合set非常相似,是一个没有重复元素的字符串集合。

不同之处是有序集合的每个成员都关联了一个评分(score),这个评分(score)被用来按照从最低分到最高分的方式排序集合中的成员。集合的成员是唯一的,但是评分可以是重复了 。

因为元素是有序的, 所以你也可以很快的根据评分(score)或者次序(position)来获取一个范围的元素。

访问有序集合的中间元素也是非常快的,因此你能够使用有序集合作为一个没有重复成员的智能列表。

常用命令

命令 解释
zadd key score1 value1 score2 value2 … 将一个或多个 member 元素及其 score 值加入到有序集 key 当中
zrange key start stop [WITHSCORES] 返回有序集 key 中,下标在start stop之间的元素
带WITHSCORES,可以让分数一起和值返回到结果集
zrangebyscore key min max [withscores] [limit offset count] 返回有序集 key 中,所有 score 值介于 min 和 max 之间(包括等于 min 或 max )的成员。有序集成员按 score 值递增(从小到大)次序排列
zrevrangebyscore key max min [withscores] [limit offset count] 同上,改为从大到小排列
zincrby key increment value 为元素的score加上增量
zrem key value 删除该集合下,指定值的元素
zcount key min max 统计该集合,分数区间内的元素个数
zrank key value 返回该值在集合中的排名,从0开始

案例:如何利用zset实现一个文章访问量的排行榜?

1
2
3
4
5
6
7
8
9
127.0.0.1:6379> zadd topn 1000 v1 2000 v2 3000 v3
(integer) 3
127.0.0.1:6379> zrevrange topn 0 3 withscores
1) "v3"
2) "3000"
3) "v2"
4) "2000"
5) "v1"
6) "1000"

数据结构

SortedSet(zset)是Redis提供的一个非常特别的数据结构,一方面它等价于Java的数据结构Map,可以给每一个元素value赋予一个权重score,另一方面它又类似于TreeSet,内部的元素会按照权重score进行排序,可以得到每个元素的名次,还可以通过score的范围来获取元素的列表。

zset底层使用了两个数据结构

(1)hash,hash的作用就是关联元素value和权重score,保障元素value的唯一性,可以通过元素value找到相应的score值。

(2)跳跃表,跳跃表的目的在于给元素value排序,根据score的范围获取元素列表。

跳跃表

有序集合在生活中比较常见,例如根据成绩对学生排名,根据得分对玩家排名等。对于有序集合的底层实现,可以用数组、平衡树、链表等。数组不便元素的插入、删除;平衡树或红黑树虽然效率高但结构复杂;链表查询需要遍历所有效率低。Redis采用的是跳跃表。跳跃表效率堪比红黑树,实现远比红黑树简单。

实例

对比有序链表和跳跃表,从链表中查询出51

  1. 有序链表

    image-20220711222751636

    要查找值为51的元素,需要从第一个元素开始依次查找、比较才能找到。共需要6次比较。

  2. 跳跃表

    image-20220711224054091

    从第2层开始,1节点比51节点小,向后比较。

    21节点比51节点小,继续向后比较,后面就是NULL了,所以从21节点向下到第1层

    在第1层,41节点比51节点小,继续向后,61节点比51节点大,所以从41向下

    在第0层,51节点为要查找的节点,节点被找到,共查找4次。

从此可以看出跳跃表比有序链表效率要高。

配置文件

因为配置了后台启动,所以路径为/etc/redis.conf

Units 单位

配置大小单位,开头定义了一些基本的度量单位,只支持bytes,不支持bit,对大小写不敏感。

1
2
3
4
5
6
# 1k => 1000 bytes
# 1kb => 1024 bytes
# 1m => 1000000 bytes
# 1mb => 1024*1024 bytes
# 1g => 1000000000 bytes
# 1gb => 1024*1024*1024 bytes

INCLUDES 包含

类似jsp中的include,多实例的情况可以把公用的配置文件提取出来

1
2
# include /path/to/local.conf
# include /path/to/other.conf

网络相关配置

bind

默认情况bind=127.0.0.1只能接受本机的访问请求,不写的情况下,无限制接受任何ip地址的访问。

  1. 生产环境是要服务器地址的,服务器需要远程访问,所以需要将其注释掉

    1
    # bind 127.0.0.1 -::1
  2. 保存配置,停止服务,重启启动查看进程,不再是本机访问了。

    这里因为设置了密码,所以需登录auth yourpass之后操作

    image-20220714232217699

protected-mode

如果开启了protected-mode,那么在没有设定bind ip且没有设密码的情况下,Redis只允许接受本机的响应

将本机访问保护模式设置no

1
protected-mode no

port

端口号,默认 6379

1
port 6379

tcp-backlog

设置tcp的backlog,backlog其实是一个连接队列,backlog队列总和=未完成三次握手队列 + 已经完成三次握手队列。

在高并发环境下你需要一个高backlog值来避免慢客户端连接问题。

注意Linux内核会将这个值减小到/proc/sys/net/core/somaxconn的值(128),所以需要确认增大/proc/sys/net/core/somaxconn和/proc/sys/net/ipv4/tcp_max_syn_backlog(128)两个值来达到想要的效果

1
tcp-backlog 511

timeout

一个空闲的客户端维持多少秒会关闭,0表示关闭该功能。即永不关闭。

1
timeout 0

tcp-keepalive

对客户端的一种心跳检测,每个n秒检测一次。

单位为秒,如果设置为0,则不会进行Keepalive检测,建议设置成60

1
tcp-keepalive 300

GENERAL 通用

daemonize

是否为后台进程,设置为yes。

1
daemonize yes

pidfile

存放pid文件的位置,记录实例的进程号。防止别的redis实例启动时占用该进程号

1
pidfile /var/run/redis_6379.pid

loglevel

指定日志记录级别,Redis总共支持四个级别:debug、verbose、notice、warning,默认为notice

1
loglevel notice

logfile

日志文件名称

1
logfile ""

databases 16

设定库的数量 默认16,默认使用的数据库为0,可以使用SELECT 命令指定使用的数据库

1
databases 16

SECURITY 安全

设置密码

访问密码的查看、设置和取消

在命令中设置密码,只是临时的。重启redis服务器,密码就还原了。

永久设置,需要再配置文件中进行设置。

1
# requirepass foobared

LIMITS 限制

maxclients

设置redis同时可以与多少个客户端进行连接

默认情况下为10000个客户端

如果达到了此限制,redis则会拒绝新的连接请求,并且向这些连接请求方发出“max number of clients reached”以作回应

1
# maxclients 10000

maxmemory

建议必须设置,否则,将内存占满,造成服务器宕机

设置redis可以使用的内存量。一旦到达内存使用上限,redis将会试图移除内部数据,移除规则可以通过maxmemory-policy来指定。

如果redis无法根据移除规则来移除内存中的数据,或者设置了“不允许移除”,那么redis则会针对那些需要申请内存的指令返回错误信息,比如SET、LPUSH等。

但是对于无内存申请的指令,仍然会正常响应,比如GET等。如果你的redis是主redis(说明你的redis有从redis),那么在设置内存使用上限时,需要在系统中留出一些内存空间给同步队列缓存,只有在你设置的是“不移除”的情况下,才不用考虑这个因素。

1
# maxmemory <bytes>

maxmemory-policy

volatile-lru:使用LRU算法移除key,只对设置了过期时间的键;(最近最少使用)

allkeys-lru:在所有集合key中,使用LRU算法移除key

volatile-random:在过期集合中移除随机的key,只对设置了过期时间的键

allkeys-random:在所有集合key中,移除随机的key

volatile-ttl:移除那些TTL值最小的key,即那些最近要过期的key

noeviction:不进行移除。针对写操作,只是返回错误信息

1
# maxmemory-policy noeviction

maxmemory-samples

设置样本数量,LRU算法和最小TTL算法都并非是精确的算法,而是估算值,所以你可以设置样本的大小,redis默认会检查这么多个key并选择其中LRU的那个。

一般设置3到7的数字,数值越小样本越不准确,但性能消耗越小。

1
# maxmemory-samples 5

发布与订阅

概述

Redis 发布订阅 (pub/sub) 是一种消息通信模式:发送者 (pub) 发送消息,订阅者 (sub) 接收消息。

Redis 客户端可以订阅任意数量的频道。

  1. 客户端订阅频道如下图

    image-20220715001100896

  2. 当给这个频道发布消息后,消息就会发送给订阅的客户端

    image-20220715001153372

命令行实现

  1. 打开一个客户端订阅 channel1

    1
    2
    3
    4
    5
    127.0.0.1:6379> subscribe channel1
    Reading messages... (press Ctrl-C to quit)
    1) "subscribe"
    2) "channel1"
    3) (integer) 1
  2. 打开另一个客户端,给 channel1 发布消息 hello

    1
    2
    3
    127.0.0.1:6379> publish channel1 hello
    (integer) 1
    127.0.0.1:6379>
  3. 这时第一个客户端可以收到发布的消息

    1
    2
    3
    4
    5
    6
    7
    8
    127.0.0.1:6379> subscribe channel1
    Reading messages... (press Ctrl-C to quit)
    1) "subscribe"
    2) "channel1"
    3) (integer) 1
    1) "message"
    2) "channel1"
    3) "hello"

发布的消息没有持久化,只能收到订阅后发布的消息

新数据类型

Bitmaps

简介

现代计算机用二进制(位) 作为信息的基础单位, 1个字节等于8位, 例如“abc”字符串是由3个字节组成, 但实际在计算机存储时将其用二进制表示, “abc”分别对应的ASCII码分别是97、 98、 99, 对应的二进制分别是01100001、 01100010和01100011。

合理地使用操作位能够有效地提高内存使用率和开发效率,Redis提供了Bitmaps这个“数据类型”可以实现对位的操作:

  • Bitmaps本身不是一种数据类型, 实际上它就是字符串(key-value) , 但是它可以对字符串的位进行操作。
  • Bitmaps单独提供了一套命令, 所以在Redis中使用Bitmaps和使用字符串的方法不太相同。 可以把Bitmaps想象成一个以位为单位的数组, 数组的每个单元只能存储0和1, 数组的下标在Bitmaps中叫做偏移量。

image-20220715002410007

命令

命令 解释
setbit key offset value 设置Bitmaps中某个偏移量的值(0或1),offset从0开始
getbit key offset 获取Bitmaps中某个偏移量的值
bitcount key [start end] 统计字符串从start字节到end字节比特值为1的数量,字节从0开始
bitop and(or/not/xor) destkey [key…] 是一个复合操作, 它可以做多个Bitmaps的and(交集)or(并集) not(非) xor(异或) 操作并将结果保存在destkey中

实例

每个独立用户是否访问过网站存放在Bitmaps中, 访问记做1, 没有访问的记做0, 用偏移量作为用户的id。

设置键的第offset个位的值(从0算起),假设现在有20个用户,userid=1, 6, 11, 15, 19的用户对网站进行了访问,那么当前Bitmaps初始化结果如图:

image-20220715003421193

1
2
3
4
5
6
7
8
9
10
127.0.0.1:6379> setbit unique:users:20220715 1 1
(integer) 0
127.0.0.1:6379> setbit unique:users:20220715 6 1
(integer) 0
127.0.0.1:6379> setbit unique:users:20220715 11 1
(integer) 0
127.0.0.1:6379> setbit unique:users:20220715 15 1
(integer) 0
127.0.0.1:6379> setbit unique:users:20220715 19 1
(integer) 0

很多应用的用户id以一个指定数字(例如10000) 开头, 直接将用户id和Bitmaps的偏移量对应势必会造成一定的浪费, 通常的做法是每次做setbit操作时将用户id减去这个指定数字。

在第一次初始化Bitmaps时, 假如偏移量非常大, 那么整个初始化过程执行会比较慢, 可能会造成Redis的阻塞。

查询id=?的用户是否在2022-07-15这天是否访问过, 返回0说明没有访问过:

1
2
3
4
5
6
127.0.0.1:6379> getbit unique:users:20220715 8
(integer) 0
127.0.0.1:6379> getbit unique:users:20220715 1
(integer) 1
127.0.0.1:6379> getbit unique:users:20220715 100
(integer) 0

因为100根本不存在,所以也是返回0

统计字符串被设置为1的bit数。一般情况下,给定的整个字符串都会被进行计数,通过指定额外的 start 或 end 参数,可以让计数只在特定的位上进行。start 和 end 参数的设置,都可以使用负数值:比如 -1 表示最后一个位,而 -2 表示倒数第二个位,start、end 是指bit组的字节的下标数。

计算2022-11-06这天的独立访问用户数量

1
2
127.0.0.1:6379> bitcount unique:users:20220715
(integer) 5

计算用户id在第1个字节到第3个字节之间的独立访问用户数, 对应的用户id是11, 15, 19

1
2
127.0.0.1:6379> bitcount unique:users:20220715 1 3
(integer) 3

字节也是从零开始的

2020-07-03 访问网站的 userid=0,1,4,9

1
2
3
4
5
6
7
8
127.0.0.1:6379> setbit unique:users:20220703 0 1
(integer) 0
127.0.0.1:6379> setbit unique:users:20220703 1 1
(integer) 0
127.0.0.1:6379> setbit unique:users:20220703 4 1
(integer) 0
127.0.0.1:6379> setbit unique:users:20220703 9 1
(integer) 0

2022-07-04 访问网站的 userid=1,2,5,9

1
2
3
4
5
6
7
8
127.0.0.1:6379> setbit unique:users:20220704 1 1
(integer) 0
127.0.0.1:6379> setbit unique:users:20220704 2 1
(integer) 0
127.0.0.1:6379> setbit unique:users:20220704 5 1
(integer) 0
127.0.0.1:6379> setbit unique:users:20220704 9 1
(integer) 0

计算出两天都访问过网站的用户数量,4和9

1
2
3
4
127.0.0.1:6379> bitop and unique:users:202207_03_04 unique:users:20220703 unique:users:20220704
(integer) 2
127.0.0.1:6379> bitcount unique:users:202207_03_04
(integer) 2

image-20220715011412168

Bitmaps与set对比

假设网站有1亿用户, 每天独立访问的用户有5千万, 如果每天用集合类型和Bitmaps分别存储活跃用户可以得到表

Bitmaps 和 set 存储一天活跃用户对比
数据类型 每个用户id占用空间 需要存储的用户量 全部内存量
集合类型 64位 50000000 64位*50000000 = 400MB
Bitmaps 1位 100000000 1位*100000000 = 12.5MB

很明显, 这种情况下使用Bitmaps能节省很多的内存空间, 尤其是随着时间推移节省的内存还是非常可观的

Bitmaps 和 set 存储独立用户空间对比
数据类型 一天 一个月 一年
集合类型 400MB 12GB 144GB
Bitmaps 12.5MB 375MB 4.5GB

但Bitmaps并不是万金油, 假如该网站每天的独立访问用户很少, 例如只有10万(大量的僵尸用户) , 那么两者的对比如下表所示:

set和Bitmaps存储一天活跃用户对比(独立用户比较少)
数据类型 每个userid占用空间 需要存储的用户量 全部内存量
集合类型 64位 100000 64位*100000 = 800KB
Bitmaps 1位 100000000 1位*100000000 = 12.5MB

很显然, 这时候使用Bitmaps就不太合适了, 因为大部分位都是0。

HyperLogLog

简介

在工作当中,我们经常会遇到与统计相关的功能需求,比如统计网站PV(PageView页面访问量),可以使用Redis的incr、incrby轻松实现。

但像UV(UniqueVisitor,独立访客)、独立IP数、搜索记录数等需要去重和计数的问题如何解决?这种求集合中不重复元素个数的问题称为基数问题。

解决基数问题有很多种方案:

(1)数据存储在MySQL表中,使用distinct count计算不重复个数

(2)使用Redis提供的hash、set、bitmaps等数据结构来处理

以上的方案结果精确,但随着数据不断增加,导致占用空间越来越大,对于非常大的数据集是不切实际的。

能否能够降低一定的精度来平衡存储空间?Redis推出了HyperLogLog

Redis HyperLogLog 是用来做基数统计的算法,HyperLogLog 的优点是,在输入元素的数量或者体积非常非常大时,计算基数所需的空间总是固定的、并且是很小的。

在 Redis 里面,每个 HyperLogLog 键只需要花费 12 KB 内存,就可以计算接近 2^64 个不同元素的基数。这和计算基数时,元素越多耗费内存就越多的集合形成鲜明对比。

但是,因为 HyperLogLog 只会根据输入元素来计算基数,而不会储存输入元素本身,所以 HyperLogLog 不能像集合那样,返回输入的各个元素。

什么是基数?

比如数据集 {1, 3, 5, 7, 5, 7, 8}, 那么这个数据集的基数集为 {1, 3, 5 ,7, 8}, 基数(不重复元素)为5。 基数估计就是在误差可接受的范围内,快速计算基数。

命令

命令 解释
pfadd key < element> [element …] 添加指定元素到 HyperLogLog 中
pfcount key [key …] 计算HLL的近似基数
pfmerge destkey sourcekey [sourcekey …] 将一个或多个HLL合并后的结果存储在另一个HLL中

实例

将所有元素添加到指定HyperLogLog数据结构中。如果执行命令后HLL估计的近似基数发生变化,则返回1,否则返回0。

1
2
3
4
5
6
127.0.0.1:6379> pfadd hll1 redis
(integer) 1
127.0.0.1:6379> pfadd hll1 mysql
(integer) 1
127.0.0.1:6379> pfadd hll1 redis
(integer) 0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
127.0.0.1:6379> pfadd hll1 redis
(integer) 1
127.0.0.1:6379> pfadd hll1 mysql
(integer) 1
127.0.0.1:6379> pfadd hll1 redis
(integer) 0
127.0.0.1:6379> pfcount hll1
(integer) 2
127.0.0.1:6379> pfadd hll2 redis
(integer) 1
127.0.0.1:6379> pfadd hll2 mongodb
(integer) 1
127.0.0.1:6379> pfcount hll1 hll2
(integer) 3
1
2
3
4
5
6
7
8
127.0.0.1:6379> pfcount hll1 hll2
(integer) 3
127.0.0.1:6379> pfcount hll1 hll2
(integer) 3
127.0.0.1:6379> pfmerge hll3 hll1 hll2
OK
127.0.0.1:6379> pfcount hll3
(integer) 3

Geospatial

简介

Redis 3.2 中增加了对GEO类型的支持。GEO,Geographic,地理信息的缩写。该类型,就是元素的2维坐标,在地图上就是经纬度。redis基于该类型,提供了经纬度设置,查询,范围查询,距离查询,经纬度Hash等常见操作。

命令

命令 解释
geoadd key longitude latitude member [longitude latitude member...] 添加地理位置(经度,纬度,名称)
geopos key member [member...] 获得指定地区的坐标值
geodist key member1 member2 [m,km,ft,mi] 获取两个位置之间的直线距离
georadiuskey longitude latituderadius [m,km,ft,mi] 以给定的经纬度为中心,找出某一半径内的元素

实例

1
2
3
4
127.0.0.1:6379> geoadd china:city 121.47 31.23 shanghai
(integer) 1
127.0.0.1:6379> geoadd china:city 106.50 29.53 chongqing 114.05 22.52 shenzhen 116.38 39.90 beijing
(integer) 3

两极无法直接添加,一般会下载城市数据,通过 Java 程序一次性导入。

有效的经度从 -180 度到 180 度。有效的纬度从 -85.05112878 度到 85.05112878 度。当坐标位置超出指定范围时,该命令将会返回一个错误。

已经添加的数据,是无法再次往里面添加的。

1
2
3
127.0.0.1:6379> geopos china:city shanghai
1) 1) "121.47000163793563843"
2) "31.22999903975783553"
  • m 表示单位米[默认值]。
  • km 表示单位千米。
  • mi 表示单位英里。
  • ft 表示单位英尺。
1
2
127.0.0.1:6379> geodist china:city beijing shanghai km
"1068.1535"
1
2
3
127.0.0.1:6379> georadius china:city 110 30 1000 km
1) "chongqing"
2) "shenzhen"

Jedis

注意事项

  • 安全组开放6379端口就行,不要禁防火墙,不然服务器会被拿去搞挖矿。
  • redis.conf中注释掉bind 127.0.0.1 ,然后 protected-mode no,也记得设置下密码

引入依赖

1
2
3
4
5
<dependency>
<groupId>redis.clients</groupId>
<artifactId>jedis</artifactId>
<version>3.2.0</version>
</dependency>

连通测试

1
2
3
4
5
6
7
8
9
10
11
12
13
public class JedisDemo {
public static void main(String[] args) {
// 创建Jedis对象
Jedis jedis = new Jedis("120.48.54.126",6379);

// 测试
String value = jedis.ping();
System.out.println(value); // PONG

// 关闭Jedis
jedis.close();
}
}

数据类型操作

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
@Test
public void demo1(){
// 创建Jedis对象
Jedis jedis = new Jedis("120.48.54.126",6379);

jedis.set("k1", "v1");
jedis.set("k2", "v2");
jedis.set("k3", "v3");
Set<String> keys = jedis.keys("*");
System.out.println(keys.size());
for (String key : keys) {
System.out.println(key);
}
System.out.println(jedis.exists("k1"));
System.out.println(jedis.ttl("k1"));
System.out.println(jedis.get("k1"));
}
1
2
3
4
5
6
@Test
public void demo2(){
Jedis jedis = new Jedis("120.48.54.126",6379);
jedis.mset("str1","v1","str2","v2","str3","v3");
System.out.println(jedis.mget("str1","str2","str3"));
}
1
2
3
4
5
6
7
8
9
@Test
public void demo3(){
Jedis jedis = new Jedis("120.48.54.126",6379);
jedis.lpush("myList","222","111");
List<String> list = jedis.lrange("myList",0,-1);
for (String element : list) {
System.out.println(element); // 111 222
}
}
1
2
3
4
5
6
7
8
9
10
11
12
@Test
public void demo4(){
Jedis jedis = new Jedis("120.48.54.126",6379);
jedis.sadd("orders", "order01");
jedis.sadd("orders", "order02");
jedis.sadd("orders", "order03");
jedis.sadd("orders", "order04");
Set<String> smembers = jedis.smembers("orders");
for (String order : smembers) {
System.out.println(order); // order01 order04 order02 order03
}
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
@Test
public void demo5(){
Jedis jedis = new Jedis("120.48.54.126",6379);
jedis.hset("hash1","userName","lisi");
System.out.println(jedis.hget("hash1","userName")); // lisi
Map<String,String> map = new HashMap<String,String>();
map.put("telephone","13810169999");
map.put("address","shanghai");
map.put("email","abc@163.com");
jedis.hmset("hash2",map);
List<String> result = jedis.hmget("hash2", "telephone","email");
for (String element : result) {
System.out.println(element); // 13810169999 abc@163.com
}
}
1
2
3
4
5
6
7
8
9
10
11
12
@Test
public void demo6(){
Jedis jedis = new Jedis("120.48.54.126",6379);
jedis.zadd("zset01", 100d, "z3");
jedis.zadd("zset01", 90d, "l4");
jedis.zadd("zset01", 80d, "w5");
jedis.zadd("zset01", 70d, "z6");
Set<String> zrange = jedis.zrange("zset01", 0, -1);
for (String e : zrange) {
System.out.println(e); // z6 w5 l4 z3
}
}

实例

完成手机验证码功能

  • 要求:

    1、输入手机号,点击发送后随机生成6位数字码,2分钟有效

    2、输入验证码,点击验证,返回成功或失败

    3、每个手机号每天只能输入3次

  • 实现

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    53
    54
    55
    56
    57
    58
    59
    60
    61
    62
    63
    64
    public class PhoneCode {

    private static String userCode;

    public static void main(String[] args) {
    // 模拟验证码请求
    verifyCode("15860888888");
    // 获取验证码
    gerRedisCode("15860888888",userCode);
    }

    // 1、生成6位数字验证码
    public static String getCode(){
    Random random = new Random();
    String code = "";
    for (int i=0;i<6;i++){
    code += random.nextInt(10);
    }
    return code;
    }

    // 2、存放验证码并设置过期时间
    public static void verifyCode(String phone){
    Jedis jedis = new Jedis("120.48.54.126",6379);

    // 发送次数key
    String countKey = phone+":count";
    // 验证码key
    String codeKey = phone+":code";

    // 判断是否超过次数
    String count = jedis.get(countKey);
    if (count == null){
    jedis.setex(countKey,24*60*60,"1");
    }else if (Integer.parseInt(count)<3){
    jedis.incr(countKey);
    }else if(Integer.parseInt(count)==3){
    System.out.println("今天三次发送次数已用完");
    jedis.close();
    return;
    }

    // 将验证码保存到redis
    String vcode = getCode();
    userCode = vcode;
    jedis.setex(codeKey,120,vcode);
    jedis.close();

    }

    // 3、验证码校验
    public static void gerRedisCode(String phone,String code){
    Jedis jedis = new Jedis("120.48.54.126",6379);
    String codeKey = phone+":code";
    String redisCode = jedis.get(codeKey);
    // 判断
    if(redisCode.equals(code)){
    System.out.println("成功");
    }else{
    System.out.println("失败");
    }
    jedis.close();
    }
    }

SpringBoot整合Redis

相关配置

  1. 引入依赖

    1
    2
    3
    4
    5
    6
    7
    8
    9
    <dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-data-redis</artifactId>
    </dependency>
    <!--如需使用jedis-->
    <dependency>
    <groupId>redis.clients</groupId>
    <artifactId>jedis</artifactId>
    </dependency>
  2. 配置文件配置redis

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    spring:
    redis:
    host: 120.48.54.126 # Redis服务器地址
    port: 6379 #Redis服务器连接端口
    password: root # 密码
    database: 0 #Redis数据库索引(默认为0)
    timeout: 1800000 #连接超时时间(毫秒)
    lettuce: # 默认使用Lettuce
    pool:
    max-active: 20 #连接池最大连接数(使用负值表示没有限制)
    max-wait: 1 #最大阻塞等待时间(负数表示没限制)
    max-idle: 5 #连接池中的最大空闲连接
    min-idle: 0 #连接池中的最小空闲连接
  3. 测试

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    @Autowired
    private StringRedisTemplate redisTemplate;

    @Test
    void testRedis() {
    //设置值到redis
    redisTemplate.opsForValue().set("name","lucy");
    //从redis获取值
    String name = (String)redisTemplate.opsForValue().get("name");
    System.out.println(name); // lucy
    }
  4. 可更换客户端(默认Lettuce)

    需在步骤一中引入jedis依赖

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    spring:
    redis:
    host: 120.48.54.126
    port: 6379
    password: root
    client-type: jedis # 指定客户端类型
    database: 0
    timeout: 1800000
    jedis: # 同样修改
    pool:
    max-active: 20
    max-wait: 1
    max-idle: 5
    min-idle: 0
  5. 查看是否切换

    1
    2
    3
    4
    5
    6
    7
    8
    @Autowired
    RedisConnectionFactory redisConnectionFactory;

    @Test
    void testJedis(){
    System.out.println(redisConnectionFactory.getClass());
    // class org.springframework.data.redis.connection.jedis.JedisConnectionFactory
    }

RedisTemplate

RedisTemplate支持两种操作方式,分别是:

  • opsFor的方式

  • bound的方式

Redis中有五种基础数据类型,RedisTemplate对象针对不同的数据类型,进行了不同的封装,将相同类型操作封装为Operation接口,分别如下所示:

image-20220716231720159

另外,考虑到每次操作都需要指定对应的【key】名称,所以为了简化指定【key】名称的操作,RedisTemplate对象也提供了绑定key的Operations接口,分别如下所示:

image-20220716231757888

事务和锁机制

事务定义

Redis事务是一个单独的隔离操作:事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。

Redis事务的主要作用就是串联多个命令防止别的命令插队。

Multi、Exec、discard

从输入Multi命令开始,输入的命令都会依次进入命令队列中,但不会执行,直到输入Exec后,Redis会将之前的命令队列中的命令依次执行。

组队的过程中可以通过discard来放弃组队。

  1. 组队成功,提交成功

    1
    2
    3
    4
    5
    6
    7
    8
    9
    127.0.0.1:6379> multi
    OK
    127.0.0.1:6379(TX)> set k1 v1
    QUEUED
    127.0.0.1:6379(TX)> set k2 v2
    QUEUED
    127.0.0.1:6379(TX)> exec
    1) OK
    2) OK
  2. 组队阶段报错,提交失败

    此时不会执行命令

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    127.0.0.1:6379> multi
    OK
    127.0.0.1:6379(TX)> set m1 v1
    QUEUED
    127.0.0.1:6379(TX)> set m2
    (error) ERR wrong number of arguments for 'set' command
    127.0.0.1:6379(TX)> set m3 v3
    QUEUED
    127.0.0.1:6379(TX)> exec
    (error) EXECABORT Transaction discarded because of previous errors.
    127.0.0.1:6379> keys *
    1) "k1"
    2) "name"
    3) "k2"
  3. 组队成功,提交有成功有失败情况

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    127.0.0.1:6379> multi
    OK
    127.0.0.1:6379(TX)> set m1 v1
    QUEUED
    127.0.0.1:6379(TX)> incr m1
    QUEUED
    127.0.0.1:6379(TX)> set m2 v2
    QUEUED
    127.0.0.1:6379(TX)> exec
    1) OK
    2) (error) ERR value is not an integer or out of range
    3) OK
    127.0.0.1:6379> keys *
    1) "name"
    2) "k1"
    3) "k2"
    4) "m2"
    5) "m1"
    127.0.0.1:6379> get m1
    "v1"

事务的错误处理

  • 组队中某个命令出现了报告错误,执行时整个的所有队列都会被取消。

    image-20220716214529459

  • 如果执行阶段某个命令报出了错误,则只有报错的命令不会被执行,而其他的命令都会执行,不会回滚。

    image-20220716214604880

为什么要做成事务

场景:有很多人有你的账户,同时去参加双十一抢购

  • 一个请求想给金额减8000
  • 一个请求想给金额减5000
  • 一个请求想给金额减1000

image-20220716214852804

悲观锁

悲观锁(Pessimistic Lock), 顾名思义,就是很悲观,每次去拿数据的时候都认为别人会修改,所以每次在拿数据的时候都会上锁,这样别人想拿这个数据就会block直到它拿到锁。传统的关系型数据库里边就用到了很多这种锁机制,比如行锁,表锁等,读锁,写锁等,都是在做操作之前先上锁。

image-20220716215031406

乐观锁

乐观锁(Optimistic Lock), 顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,所以不会上锁,但是在更新的时候会判断一下在此期间别人有没有去更新这个数据,可以使用版本号等机制。乐观锁适用于多读的应用类型,这样可以提高吞吐量。Redis就是利用这种check-and-set机制实现事务的。

image-20220716215259441

WATCH key [key …]

在执行multi之前,先执行watch key1 [key2],可以监视一个(或多个) key ,如果在事务执行之前这个(或这些) key 被其他命令所改动,那么事务将被打断。(乐观锁)

  • 客户1

    1
    2
    3
    4
    5
    6
    127.0.0.1:6379> watch balance # 初始值100
    OK
    127.0.0.1:6379> multi
    OK
    127.0.0.1:6379(TX)> incrby balance 10
    QUEUED
  • 客户2

    1
    2
    127.0.0.1:6379> decrby balance 20
    (integer) 80
  • 客户1

    1
    2
    3
    4
    127.0.0.1:6379(TX)> exec
    (nil)
    127.0.0.1:6379> get balance
    "80"

假如某个(或某些) key 正处于 WATCH 命令的监视之下,且事务块中有和这个(或这些) key 相关的命令,那么 EXEC 命令只在这个(或这些) key 没有被其他命令所改动的情况下执行并生效,否则该事务被打断。

UNWATCH

取消 WATCH 命令对所有 key 的监视。

如果在执行 WATCH 命令之后,EXEC 命令或 DISCARD 命令先被执行了的话,那么就不需要再执行UNWATCH 了。

事务三特性

  • 单独的隔离操作

    事务中的所有命令都会序列化、按顺序地执行。事务在执行的过程中,不会被其他客户端发送来的命令请求所打断。

  • 没有隔离级别的概念

    队列中的命令没有提交之前都不会实际被执行,因为事务提交前任何指令都不会被实际执行

  • 不保证原子性

    事务中如果有一条命令执行失败,其后的命令仍然会被执行,没有回滚

秒杀案例

image-20220716223652338

  1. 秒杀代码逻辑

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    @RestController
    public class RedisController {

    @Autowired
    private StringRedisTemplate redisTemplate;

    @GetMapping("/miaosha/{uid}/{proid}")
    public String miaosha(@PathVariable("uid") String uid,@PathVariable(value = "proid",required = false) String proid) {

    // sk:1001:qt 10,默认proid为1001,已在redis服务器设置了
    proid = "1001";

    // 1、拼接key
    // 1.1、库存key
    String kcKey = "sk:"+proid+":qt";
    // 1.2、秒杀成功用户key
    String userKey = "sk:"+proid+":user";

    // 2、判断用户是否已经秒杀
    if (redisTemplate.opsForSet().isMember(userKey, uid)){
    System.out.println("已经秒杀成功,不能重复秒杀");
    return "fail";
    }

    // 3、获取库存判断是否已经秒杀完
    Integer kc = Integer.parseInt(redisTemplate.opsForValue().get(kcKey));
    if (kc<1){
    System.out.println("已经被秒杀完了");
    return "fail";
    }

    // 4、秒杀过程(库存-1,将当前用户加入已秒杀用户清单)
    redisTemplate.opsForValue().decrement(kcKey);
    redisTemplate.opsForSet().add(userKey,uid);
    System.out.println("秒杀成功");

    return "success";
    }
    }
  2. 并发模拟,使用工具ab模拟测试

    • CentOS6 默认安装
    • CentOS7需手动安装 yum install httpd-tools

    ab具体用法看文档吧,因为ping不通本机所以不搞了。

    并发操作会出现的问题: 一个用户可能秒杀成功多次以及库存可能为负数。

  3. 超卖问题

    即上述描述的问题

    image-20220717002955761

  4. 乐观锁解决

    image-20220717003056769

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
    32
    33
    34
    35
    36
    37
    38
    39
    40
    41
    42
    43
    44
    45
    46
    47
    48
    49
    50
    51
    52
    @RestController
    public class RedisController {

    @Autowired
    private StringRedisTemplate redisTemplate;


    @GetMapping("/miaosha/{uid}/{proid}")
    public String miaosha(@PathVariable("uid") String uid,@PathVariable("proid") String proid) {

    // sk:1001:qt 10,默认proid为1001,已在redis服务器设置了

    // 1、拼接key
    // 1.1、库存key
    String kcKey = "sk:"+proid+":qt";
    // 1.2、秒杀成功用户key
    String userKey = "sk:"+proid+":user";


    // 2、判断用户是否已经秒杀
    if (redisTemplate.opsForSet().isMember(userKey, uid)){
    System.out.println("已经秒杀成功,不能重复秒杀");
    return "fail";
    }

    // 监视库存,当该key被其它客户端改变时,则会中断当前的操作
    redisTemplate.watch(kcKey);

    // 3、获取库存判断是否已经秒杀完
    Integer kc = Integer.parseInt(redisTemplate.opsForValue().get(kcKey));
    if (kc<1){
    System.out.println("已经被秒杀完了");
    return "fail";
    }

    // 4、秒杀过程(库存-1,将当前用户加入已秒杀用户清单)
    // 开始事务
    redisTemplate.multi();
    // 组队
    redisTemplate.opsForValue().decrement(kcKey);
    redisTemplate.opsForSet().add(userKey,uid);
    // 执行事务
    List<Object> results = redisTemplate.exec();
    if (results==null||results.size()==0){
    System.out.println("秒杀失败");
    }else{
    System.out.println("秒杀成功");
    }

    return "success";
    }
    }

    解决了超卖问题,但是衍生出了库存遗留问题。例如有500库存,有2000条不同用户的秒杀请求,但是这些请求处理结束后,库存仍然有剩余。

    原因: 先秒杀的有可能失败

  5. LUA脚本解决

    类似悲观锁,LUA文档

    可将复杂的或者多步的redis操作,写为一个脚本,一次提交给redis执行,减少反复连接redis的次数。提升性能。

    LUA脚本是类似redis事务,有一定的原子性,不会被其他命令插队,可以完成一些redis事务性的操作。

    但是注意redis的lua脚本功能,只有在Redis 2.6以上的版本才可以使用。利用lua脚本淘汰用户,解决超卖问题。

    redis 2.6版本以后,通过lua脚本解决争抢问题,实际上是 redis 利用其单线程的特性,用任务队列的方式解决多任务并发问题。

    image-20220717015251820

    lua脚本:

    image-20220717140838386

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    local userid=KEYS[1];
    local prodid=KEYS[2];
    local kcKey="sk:"..prodid..":qt";
    local usersKey="sk:"..prodid..":user";
    local userExists=redis.call("sismember",usersKey,userid);
    if tonumber(userExists)==1 then
    return "当前用户已秒杀过了";
    end
    local num=redis.call("get" ,kcKey);
    if tonumber(num)<=0 then
    return "商品已被秒杀完";
    else
    redis.call("decr",kcKey);
    redis.call("sadd",usersKey,userid);
    end
    return "秒杀成功";

    控制器方法:

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    @GetMapping("/lua")
    public String lua(){
    String uid = "12";
    String proid = "1001";
    DefaultRedisScript<String> script = new DefaultRedisScript<>();
    // 设置返回类型
    script.setResultType(String.class);
    // 加载lua文件
    script.setScriptSource(new ResourceScriptSource(new ClassPathResource("lua/demo1.lua")));

    List<String> keys = new ArrayList<>();
    keys.add(uid);
    keys.add(proid);
    // 执行lua
    String result = redisTemplate.execute(script, keys);

    System.out.println(result);
    return result;
    }

    使用lua可以完美解决超卖问题,并且不需要再写事务,因为lua执行时不会被插队。

持久化操作

即将内存中的数据存入硬盘。

两种方式:

  • RDB(Redis DataBase)
  • AOF(Append Of File)

RDB

概述

在指定的时间间隔内将内存中的数据集快照写入磁盘, 也就是行话讲的Snapshot快照,它恢复时是将快照文件直接读到内存里。

例如时间间隔10s,则在12:00:10、12:00:20、12:00:30…,将快照写入磁盘。

Redis会单独创建(fork)一个子进程来进行持久化,会先将数据写入到 一个临时文件中,待持久化过程都结束了,再用这个临时文件替换上次持久化好的文件。 整个过程中,主进程是不进行任何IO操作的,这就确保了极高的性能。如果需要进行大规模数据的恢复,且对于数据恢复的完整性不是非常敏感,那RDB方式要比AOF方式更加的高效。

RDB的缺点是最后一次持久化后的数据可能丢失。

Fork

  • Fork的作用是复制一个与当前进程一样的进程。新进程的所有数据(变量、环境变量、程序计数器等) 数值都和原进程一致,但是是一个全新的进程,并作为原进程的子进程。
  • 一般情况父进程和子进程会共用同一段物理内存,只有进程空间的各段的内容要发生变化时,才会将父进程的内容复制一份给子进程。

相关配置

  • dump.rdb

    即持久化的存储文件

    在redis.conf中配置文件名称,默认为dump.rdb

    1
    dbfilename dump.rdb

    rdb文件的保存路径,也可以修改。默认为Redis启动时命令行所在的目录下

    1
    dir ./
  • save

    格式:save 秒钟 写操作次数

    eg:save 20 3,即每20秒时间间隔中,如果至少有3个key改变,则20秒结束后将更新内容持久化到dump.db中,否则不持久化。

    禁用:不设置save指令,或者给save传入空字符串。

    1
    # save ""

    以下是默认的快照配置:

    image-20220717170008360

    Redis是单线程程序,这个线程要同时负责多个客户端套接字的并发读写操作和内存结构的逻辑读写。而save命令会阻塞当前的Redis服务器,在执行该命令期间,Redis无法处理其他的命令,直到整个RDB过程完成为止,用一张图描述以下:

    image-20220717182439524

    当这条指令执行完毕,将RDB文件保存下来后,才能继续去响应请求。这种方式用于新机器上数据的备份还好,如果用在生产上,那么简直是灾难,数据量过于庞大,阻塞的时间点过长。这种方式并不可取。

  • bgsave

    为了不阻塞线上的业务,那么Redis就必须一边持久化,一边响应客户端的请求。所以在执行bgsave时可以通过fork一个子进程,然后通过这个子进程来处理接下来所有的保存工作,父进程就可以继续响应请求而无需去关心I/O操作。

    image-20220717182626479

  • 命令 save VS bgsave

    save:save时只管保存,其它不管,全部阻塞。手动保存。不建议。
    bgsave:Redis会在后台异步进行快照操作, 快照同时还可以响应客户端请求。可以通过lastsave 命令获取最后一次成功执行快照的时间。

  • stop-writes-on-bgsave-error

    当redis无法写入磁盘的话,直接关掉Redis的写操作。推荐yes。这样做的好处是可以让用户意识到数据并没有被成功地持久化,避免后续更严重的业务问题的发生

    1
    stop-writes-on-bgsave-error yes
  • rdbcompression 压缩文件

    对于存储到磁盘中的快照,可以设置是否进行压缩存储。如果是的话,redis会采用LZF算法进行压缩。
    如果你不想消耗CPU来进行压缩的话,可以设置为关闭此功能。推荐yes。

    1
    rdbcompression yes
  • rdbchecksum 检查完整性

    在快照存储完成后,让redis使用CRC64算法来进行数据校验,但是这样做会增加大约10%的性能消耗,如果希望获取到最大的性能提升,可以关闭此功能,推荐yes。

    1
    rdbchecksum yes
  • flushall命令

    执行flushall命令,也会产生dump.rdb文件,但里面是空的,无意义

备份

先通过config get dir 查询rdb文件的目录 ,之后将目录下的*.rdb拷贝到其它地方。

1
2
3
127.0.0.1:6379> config get dir
1) "dir"
2) "/root"

恢复

  1. 关闭Redis
  2. 把备份的文件拷贝到工作目录下 cp dump2.rdb dump.rdb
  3. 启动Redis, 备份数据会直接加载

优势

  • RDB 是一个非常紧凑(compact)的文件(保存二进制数据),它保存了 Redis 在某个时间点上的数据集。 这种文件非常适合用于进行备份: 比如说,你可以在最近的 24 小时内,每小时备份一次 RDB 文件,并且在每个月的每一天,也备份一个 RDB 文件。 这样的话,即使遇上问题,也可以随时将数据集还原到不同的版本;
  • RDB 非常适用于灾难恢复(disaster recovery):它只有一个文件,并且内容都非常紧凑,可以(在加密后)将它传送到别的数据中心;RDB 可以最大化 Redis 的性能:父进程在保存 RDB 文件时唯一要做的就是 fork 出一个子进程,然后这个子进程就会处理接下来的所有保存工作,父进程无须执行任何磁盘 I/O 操作;
  • RDB 在恢复大数据集时的速度比 AOF 的恢复速度要快。

劣势

  • 如果业务上需要尽量避免在服务器故障时丢失数据,那么 RDB 并不适合。 虽然 Redis 允许在设置不同的保存点(save point)来控制保存 RDB 文件的频率, 但是, 由于 RDB 文件需要保存整个数据集的状态, 所以这个过程并不快,可能会至少 5 分钟才能完成一次 RDB 文件保存。 在这种情况下, 一旦发生故障停机, 就可能会丢失好几分钟的数据。
  • 每次保存 RDB 的时候,Redis 都要 fork() 出一个子进程,并由子进程来进行实际的持久化工作。 在数据集比较庞大时, fork() 可能会非常耗时,造成服务器在某某毫秒内停止处理客户端; 如果数据集非常巨大,并且 CPU 时间非常紧张的话,那么这种停止时间甚至可能会长达整整一秒。 虽然 AOF 重写也需要进行 fork() ,但无论 AOF 重写的执行间隔有多长,数据的耐久性都不会有任何损失。

停止

动态停止RDB:redis-cli config set save "" 表示禁用保存策略。

AOF

概述

RDB 持久化是(全量备份),比较耗时,所以Redis就提供了一种更为高效地AOF(Append Only-file)持久化方案。

AOF以日志的形式来记录每个写操作(增量保存),将Redis执行过的所有写指令记录下来(读操作不记录), 只许追加文件但不可以改写文件,redis启动之初会读取该文件重新构建数据,换言之,redis 重启的话就根据日志文件的内容将写指令从前到后执行一次以完成数据的恢复工作。

流程:

  1. 客户端的请求写命令会被append追加到AOF缓冲区内;
  2. AOF缓冲区根据AOF持久化策略[always,everysec,no]将操作sync同步到磁盘的AOF文件中;
  3. AOF文件大小超过重写策略或手动重写时,会对AOF文件rewrite重写,压缩AOF文件容量;
  4. Redis服务重启时,会重新load加载AOF文件中的写操作达到数据恢复的目的;

image-20220717185706990

AOF和RDB同时开启,系统默认取AOF的数据(数据不会存在丢失)

启动/修复/恢复

AOF的备份机制和性能虽然和RDB不同, 但是备份和恢复的操作同RDB一样,都是拷贝备份文件,需要恢复时再拷贝到Redis工作目录下,启动系统即加载。

AOF默认不开启,可以在redis.conf配置文件名称,默认为 appendonly.aof。AOF文件的保存路径,同RDB的路径一致。

  • 启动

    • always:每次发生数据修改就会立即记录到磁盘文件中,这种方案的完整性好但是IO开销很大,性能较差;
    • everysec:在每一秒中进行同步,速度有所提升。但是如果在一秒内宕机的话可能失去这一秒内的数据;
    • no:默认配置,即不使用 AOF 持久化方案。

    可以在redis.config中进行配置,appendonly no改换为yes,再通过appendfsync配置三种方案的一种。

    AOF启动时,不会加载dump.rdb的数据,因为AOF启动加载的是appendonly.aof。

  • 正常恢复

    1. 将备份的aof文件复制到工作目录
    2. 重启redis
  • 异常恢复

    如果redis在append数据到AOF文件时,机器宕机了,可能会导致AOF文件破损

    1. 如遇到aof文件损坏,通过redis-check-aof --fix appendonly.aof命令进行修复。

      就是对文件进行语法检查。

      例如往appendonly.aof随便输入几个符号保存,在重新启动redis就会报错,之后可以执行修复语句,它会自动将多出来的不符合语法的符号删除。

    2. 重启redis

Rewrite 压缩

  • 什么是rewrite

    AOF采用文件追加方式,文件会越来越大,为避免出现此种情况,新增了重写机制, 当AOF文件的大小超过所设定的阈值时,Redis就会启动将AOF文件的内容压缩, 只保留可以恢复数据的最小指令集,例如原本存的是set k1 v1 set k2 v2,压缩后则变成set k1 v1 k2 v2。可以使用命令bgrewriteaof手动重写。

    AOF文件持续增长而过大时,会fork出一条新进程来将文件重写(也是先写临时文件最后再rename)。

  • 何时重写

    Redis会记录上次重写时的AOF大小,默认配置是当AOF文件大小是上次rewrite后大小的一倍且文件大于64M时触发

  • 设置重写基准值

    auto-aof-rewrite-percentage:默认文件大小是原来重写后文件大小的2倍时触发

    auto-aof-rewrite-min-size:默认64MB。达到这个值开始重写。

    系统载入时或者上次重写完毕时,Redis会记录此时AOF大小,设为base_size,如果Redis的AOF当前大小>=base_size*(1+100%) 且当前大小>=64mb的情况下,Redis会对AOF进行重写。

  • 重写流程

    1. bgrewriteaof触发重写,判断是否当前有bgsave或bgrewriteaof在运行,如果有,则等待该命令结束后再继续执行。
    2. 主进程fork出子进程执行重写操作,保证主进程不会阻塞。
    3. 子进程遍历redis内存中数据到临时文件,客户端的写请求同时写入aof_buf缓冲区和aof_rewrite_buf重写缓冲区保证原AOF文件完整以及新AOF文件生成期间的新的数据修改动作不会丢失。
    4. 子进程写完新的AOF文件后,向主进程发信号,父进程更新统计信息。主进程把aof_rewrite_buf中的数据写入到新的AOF文件。
    5. 使用新的AOF文件覆盖旧的AOF文件,完成AOF重写。

    image-20220717215814466

优势

  • 备份机制更稳健,丢失数据概率更低。
  • AOF 文件是一个只进行追加操作的日志文件,即使日志因为某些原因而包含了未写入完整的命令(比如写入时磁盘已满,写入中途停机,等等), redis-check-aof 工具也可以轻易地修复这种问题。

劣势

  • 比起RDB占用更多的磁盘空间。
  • 恢复备份速度要慢。
  • 每次读写都同步的话,有一定的性能压力。
  • 存在个别Bug,造成恢复不能。

混合持久化

重启 Redis 时,如果使用 RDB 来恢复内存状态,会丢失大量数据。而如果只使用 AOF 日志重放,那么效率又太过于低下。Redis 4.0+提供了混合持久化方案,将 RDB 文件的内容和增量的 AOF 日志文件存在一起。这里的 AOF 日志不再是全量的日志,而是自 RDB 持久化开始到持久化结束这段时间发生的增量 AOF 日志,通常这部分日志很小。

image-20220717220809629

于是在 Redis 重启的时候,可以先加载 RDB 的内容,然后再重放增量 AOF 日志,就可以完全替代之前的 AOF 全量重放,重启效率因此得到大幅提升。

主从复制

概述

主机数据更新后根据配置和策略, 自动同步到备机(master/slaver)的机制,Master写,Slave读

  • 读写分离,性能扩展
  • 容灾快速恢复

image-20220718152149627

一主二从

一主多从同理,不过只能有一台主机,如需配置多台主机,请集群。

  1. 修改redis.conf

    1
    2
    daemonize yes # 确保开启后台启动
    appendonly no # 不关也行,不过还得配置不同的日志文件名称
  2. 拷贝redis.conf到指定目录

    1
    2
    3
    [root@instance-jwzbgijw ~]# mkdir myredis
    [root@instance-jwzbgijw ~]# cd myredis
    [root@instance-jwzbgijw myredis]# cp /etc/redis.conf redis.conf
  3. 目录下新建三个conf文件,因为目前配置的是一主二从

    1
    2
    3
    4
    5
    6
    vi redis6379.conf
    内容:
    include /root/myredis/redis.conf # 将复制的redis.conf引入
    pidfile /var/run/redis_6379.pid # 记录实例进程号的文件
    port 6379 # 配置端口号
    dbfilename dump6379.rdb # 配置rdb存储文件名称

    另外两个conf文件同理,端口分别为6380、6381。将上述6379替换成对应端口。

    此时myredis目录:

    1
    2
    3
    4
    5
    6
    [root@instance-jwzbgijw myredis]# ll
    total 104
    -rw-r--r-- 1 root root 96 Jul 18 15:43 redis6379.conf
    -rw-r--r-- 1 root root 96 Jul 18 15:45 redis6380.conf
    -rw-r--r-- 1 root root 96 Jul 18 15:46 redis6381.conf
    -rw-r--r-- 1 root root 93845 Jul 18 15:28 redis.conf
  4. 启动

    如果之前已经启动了redis先停掉,避免占用端口。

    1
    2
    3
    [root@instance-jwzbgijw myredis]# redis-server redis6379.conf
    [root@instance-jwzbgijw myredis]# redis-server redis6380.conf
    [root@instance-jwzbgijw myredis]# redis-server redis6381.conf
    1
    2
    3
    4
    5
    [root@instance-jwzbgijw myredis]# ps -ef | grep redis
    root 17396 1 0 16:09 ? 00:00:00 redis-server *:6379
    root 17420 1 0 16:09 ? 00:00:00 redis-server *:6380
    root 17428 1 0 16:09 ? 00:00:00 redis-server *:6381
    root 17552 14243 0 16:11 pts/0 00:00:00 grep --color=auto redis
  5. 连接三台机子查看详情

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    [root@instance-jwzbgijw myredis]# redis-cli -p 6379 # 通过端口号连接
    27.0.0.1:6379> info replication
    # Replication
    role:master # 代表主机
    connected_slaves:0
    master_failover_state:no-failover
    master_replid:1e6446a0ff496163c54b9ff2d59e46b1e1480e0a
    master_replid2:0000000000000000000000000000000000000000
    master_repl_offset:0
    second_repl_offset:-1
    repl_backlog_active:0
    repl_backlog_size:1048576
    repl_backlog_first_byte_offset:0
    repl_backlog_histlen:0

    此时三台机子都只是主机,并没有主从关系。

  6. 配置主从

    只需配从无需配主,slaveof <ip> <port>:成为某个实例的从服务器。

    可以将配置增加到文件中。永久生效。

    在6380和6381上执行:slaveof 127.0.0.1 6379,使它们成为6379的从服务器

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    [root@instance-jwzbgijw ~]# redis-cli -p 6380 # 6381同理
    127.0.0.1:6380> auth root
    OK
    127.0.0.1:6380> slaveof 127.0.0.1 6379
    OK
    127.0.0.1:6380> info replication
    # Replication
    role:slave # 此时角色已经改变,并且从属于本机6379
    master_host:127.0.0.1
    master_port:6379

    此时主机6379:

    1
    2
    3
    4
    5
    6
    127.0.0.1:6379> info replication
    # Replication
    role:master
    connected_slaves:2
    slave0:ip=127.0.0.1,port=6380,state=online,offset=616,lag=0
    slave1:ip=127.0.0.1,port=6381,state=online,offset=616,lag=0

    如果主机设置了密码,还需在redis638*.conf配置masterauth password

    这种主从关系只是暂时的,某个redis服务关掉重启则失效。可在配置文件配置永久。

  7. 实例演示

    在主机设置一个key(从机不能进行写操作,会报错)

    1
    2
    3
    4
    5
    6
    127.0.0.1:6379> set k1 v1
    OK
    127.0.0.1:6379> keys *
    1) "k1"
    127.0.0.1:6379> get k1
    "v1"

    从机可以拿到主机设置的key

    1
    2
    3
    4
    127.0.0.1:6380> get k1
    "v1"
    127.0.0.1:6381> get k1
    "v1"
  • 当从机挂掉,就算主机在这期间写入了一些值,只要从机连上主机,数据还是会跟主机一样。
  • 当主机挂掉,只要主机重新连接服务,从机会自动连接上主机。

复制原理

  • Slave启动成功连接到master后会发送进行同步的消息;
  • Master接到命令对主机数据进行持久化,再将持久化文件传给从机,从机以此完成同步;
  • 全量复制:而slave服务在接收到数据库文件数据后,将其存盘并加载到内存中;
  • 增量复制:Master继续将新的数据传给slave,完成同步。
  • 只要是重新连接master,一次完全同步(全量复制)将被自动执行。

复制延时问题:

由于所有的写操作都是先在Master上操作,然后同步更新到Slave上,所以从Master同步到Slave机器有一定的延迟,当系统很繁忙的时候,延迟问题会更加严重,Slave机器数量的增加也会使这个问题更加严重。

薪火相传

slave同样可以作为master,可以有效减轻master的写压力,去中心化降低风险。并且机子的数据都是一样的,例如主机写入了一些数据,将它同步到自己的从机,从机再将这些数据同步到自己的从机当中去。

缺点:主机的从机如果挂掉,主机是没办法将数据同步到从机的从机当中去的。

image-20220718182705473

反客为主

当一个master宕机后,后面的slave可以立刻升为master,其后面的slave不用做任何修改。

使用 slaveof no one 将从机变为主机。不执行从机会一直等待主机重新启动服务。

缺点:需手动进行操作。如需自动可使用哨兵模式。

哨兵模式

反客为主的自动版,能够后台监控主机是否故障,如果故障了根据投票数自动将从库转换为主库。

配置

image-20220718192542821

  1. 在之前自定义的/myredis目录下新建sentinel.conf文件,名称不能错

    1
    2
    3
    4
    5
    6
    7
    8
    9
    [root@instance-jwzbgijw myredis]# ll
    total 116
    -rw-r--r-- 1 root root 188 Jul 18 18:45 dump6379.rdb
    -rw-r--r-- 1 root root 188 Jul 18 18:39 dump6380.rdb
    -rw-r--r-- 1 root root 188 Jul 18 18:45 dump6381.rdb
    -rw-r--r-- 1 root root 100 Jul 18 16:08 redis6379.conf
    -rw-r--r-- 1 root root 115 Jul 18 17:34 redis6380.conf
    -rw-r--r-- 1 root root 115 Jul 18 17:41 redis6381.conf
    -rw-r--r-- 1 root root 93845 Jul 18 15:28 redis.conf
  2. 配置哨兵

    在新建的文件里填写

    1
    2
    sentinel monitor mymaster 127.0.0.1 6379 1
    sentinel auth-pass mymaster root # 如果监听的redis主机设置了密码,则还需配置

    其中mymaster为监控对象起的服务器名称,1为至少有多少个哨兵同意才可进行迁移主机

  3. 启动哨兵

    1
    [root@instance-jwzbgijw myredis]# redis-sentinel sentinel.conf

    启动时如遇警告:The TCP backlog setting of 511 cannot be enforced because /proc/sys/net/core/somaxconn is set to the lower value of 128.

    则将net.core.somaxconn = 1024添加到/etc/sysctl.conf中,然后执行sysctl -p生效配置

  4. 当主机挂掉,从机选举产生新的主机

    大概10秒左右可以看到哨兵窗口日志,切换了新的主机。哨兵会根据优先级别:slave-priority选举新的主机。原主机重启后会变成从机。

选举流程

优先级在redis.conf中默认:slave-priority 100,值越小优先级越高

偏移量最大即跟原主机数据最接近的

每个redis实例启动后都会随机生成一个40位的runid

  1. 选择优先级靠前的
  2. 选择偏移量最大的
  3. 选择runid最小的

按照步骤从以上条件选出新主机后sentinel向原主机的从机发送slaveof 新主机命令,当已下线机子重新上线时,同样回想其发送该命令以替换新主。

集群

简介

Redis 集群实现了对Redis的水平扩容,即启动N个redis节点,将整个数据库分布存储在这N个节点中,每个节点存储总数据的1/N。

Redis 集群通过分区(partition)来提供一定程度的可用性(availability): 即使集群中有一部分节点失效或者无法进行通讯, 集群也可以继续处理命令请求。

特点:

  • 解决容量不够
  • 解决并发写操作
  • 另外,主从模式,薪火相传等模式,可能导致ip地址发生变化,应用程序中配置需要修改对应的主机地址、端口等信息。
    之前通过代理主机来解决,但是redis3.0中提供了解决方案。就是无中心化集群配置

搭建集群

模拟搭建六台redis服务器的集群,三主三从。6379,6380,6381,6389,6390,6391

  1. 删除之前遗留的rdb文件(可能会有干扰)

    1
    [root@instance-jwzbgijw myredis]# rm -rf dump63*
  2. 配置修改(redis6379.conf为例)

    1
    2
    3
    4
    5
    6
    7
    8
    9
    include /root/myredis/redis.conf
    pidfile "/var/run/redis_6379.pid"
    port 6379
    dbfilename "dump6379.rdb"
    requirepass root 自身密码
    masterauth root 主机密码
    cluster-enabled yes 打开集群模式
    cluster-config-file nodes-6379.conf 设定节点配置文件名,自动生成
    cluster-node-timeout 15000 设定节点失联时间,超过该时间(毫秒),集群自动进行主从切换。
  3. 启动6个redis服务

    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    [root@instance-jwzbgijw myredis]# redis-server redis6379.conf
    [root@instance-jwzbgijw myredis]# redis-server redis6380.conf
    [root@instance-jwzbgijw myredis]# redis-server redis6381.conf
    [root@instance-jwzbgijw myredis]# redis-server redis6389.conf
    [root@instance-jwzbgijw myredis]# redis-server redis6390.conf
    [root@instance-jwzbgijw myredis]# redis-server redis6391.conf
    [root@instance-jwzbgijw myredis]# ps -ef | grep redis
    root 40542 1 0 08:58 ? 00:00:00 redis-server *:6379 [cluster]
    root 40550 1 0 08:58 ? 00:00:00 redis-server *:6380 [cluster]
    root 40558 1 0 08:58 ? 00:00:00 redis-server *:6381 [cluster]
    root 40569 1 0 08:58 ? 00:00:00 redis-server *:6389 [cluster]
    root 40577 1 0 08:58 ? 00:00:00 redis-server *:6390 [cluster]
    root 40585 1 0 08:58 ? 00:00:00 redis-server *:6391 [cluster]
    root 40611 38754 0 08:58 pts/0 00:00:00 grep --color=auto redis
    [root@instance-jwzbgijw myredis]# ll
    total 144
    -rw-r--r-- 1 root root 114 Jul 20 08:58 nodes-6379.conf
    -rw-r--r-- 1 root root 114 Jul 20 08:58 nodes-6380.conf
    -rw-r--r-- 1 root root 114 Jul 20 08:58 nodes-6381.conf
    -rw-r--r-- 1 root root 114 Jul 20 08:58 nodes-6389.conf
    -rw-r--r-- 1 root root 114 Jul 20 08:58 nodes-6390.conf
    -rw-r--r-- 1 root root 114 Jul 20 08:58 nodes-6391.conf
    -rw-r--r-- 1 root root 202 Jul 20 08:53 redis6379.conf
    -rw-r--r-- 1 root root 202 Jul 20 08:54 redis6380.conf
    -rw-r--r-- 1 root root 202 Jul 20 08:55 redis6381.conf
    -rw-r--r-- 1 root root 202 Jul 20 08:55 redis6389.conf
    -rw-r--r-- 1 root root 202 Jul 20 08:55 redis6390.conf
    -rw-r--r-- 1 root root 202 Jul 20 08:56 redis6391.conf
  4. 合成集群

    合成前,确保所有redis实例启动且nodes-xxxx.conf文件都生成。

    请使用真实ip地址,--replicas 1:代表一主一从

    这次需要关闭防火墙(一百八十万个不情愿🤐)

    1
    2
    [root@instance-jwzbgijw ~]# cd /opt/redis-6.2.7/src
    [root@instance-jwzbgijw src]# redis-cli --cluster create --cluster-replicas 1 -a root 120.48.54.126:6379 120.48.54.126:6380 120.48.54.126:6381 120.48.54.126:6389 120.48.54.126:6390 120.48.54.126:6391

    image-20220720095400351

  5. 集群连接

    1
    redis-cli -c -p 6379 # 端口随意

相关说明

一个 Redis 集群包含 16384 个插槽(hash slot), 数据库中的每个键都属于这 16384 个插槽的其中一个,
集群使用公式 CRC16(key) % 16384 来计算键 key 属于哪个槽, 其中 CRC16(key) 语句用于计算键 key 的 CRC16 校验和 。
集群中的每个节点负责处理一部分插槽。 举个例子, 如果一个集群可以有主节点, 其中:
节点 A 负责处理 0 号至 5460 号插槽。
节点 B 负责处理 5461 号至 10922 号插槽。
节点 C 负责处理 10923 号至 16383 号插槽。

redis-cli -c –p 6379 登入后,再录入、查询键值对可以自动重定向。

不在一个slot下的键值,是不能使用mget,mset等多键操作

可以通过{}来定义组的概念,从而使key中{}内相同内容的键值对放到一个slot中去。

1
2
3
4
120.48.54.126:6381> mset k1 v1 k2 v2 k3 v3
(error) CROSSSLOT Keys in request don't hash to the same slot
120.48.54.126:6380> mset k1{test} v1 k2{test} v2 k3{test} v3
OK

查询

1
2
3
4
5
6
7
8
120.48.54.126:6380> cluster keyslot test
(integer) 6918
120.48.54.126:6380> cluster countkeysinslot 6918
(integer) 3
120.48.54.126:6380> cluster getkeysinslot 6918 10
1) "k1{test}"
2) "k2{test}"
3) "k3{test}"

不足

多键操作是不被支持的

多键的Redis事务是不被支持的。lua脚本不被支持

由于集群方案出现较晚,很多公司已经采用了其他的集群方案,而代理或者客户端分片的方案想要迁移至redis cluster,需要整体迁移而不是逐步过渡,复杂度较大。

应用问题

缓存穿透

问题

key对应的数据在数据源并不存在,每次针对此key的请求从缓存获取不到,请求都会压到数据源,从而可能压垮数据源。比如用一个不存在的用户id获取用户信息,不论缓存还是数据库都没有,若黑客利用此漏洞进行攻击可能压垮数据库。

解决

  1. 空值缓存:

    如果一个查询返回的数据为空(不管是数据是否存在),我们仍然把这个空结果(null)进行缓存,设置空结果的过期时间会很短,最长不超过五分钟

  2. 设置可访问的名单(白名单)

    使用bitmaps类型定义一个可以访问的名单,名单id作为bitmaps的偏移量,每次访问和bitmap里面的id进行比较,如果访问id不在bitmaps里面,进行拦截,不允许访问。

  3. 采用布隆过滤器

    布隆过滤器(Bloom Filter)是1970年由布隆提出的。它实际上是一个很长的二进制向量(位图)和一系列随机映射函数(哈希函数)。布隆过滤器可以用于检索一个元素是否在一个集合中。它的优点是空间效率和查询时间都远远超过一般的算法,缺点是有一定的误识别率和删除困难。(类似于第二种方式)

  4. 进行实时监控

    当发现Redis的命中率开始急速降低,需要排查访问对象和访问的数据,和运维人员配合,可以设置黑名单限制服务

缓存击穿

问题

key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮。

解决

  1. 预先设置热门数据

    在redis高峰访问之前,把一些热门数据提前存入到redis里面,加大这些热门数据key的时长

  2. 实时调整

    现场监控哪些数据热门,实时调整key的过期时长

  3. 使用锁

    就是在缓存失效的时候(判断拿出来的值是否为空),不是立即去load db;

    先使用缓存工具的某些带成功操作返回值的操作(比如Redis的SETNX)去set一个mutex key;

    当操作返回成功时,再进行load db的操作,并回设缓存,最后删除mutex key;

    当操作返回失败,证明有线程在load db,当前线程睡眠一段时间再重试整个get缓存的方法。

    image-20220720105744041

缓存雪崩

问题

key对应的数据存在,但在redis中过期,此时若有大量并发请求过来,这些请求发现缓存过期一般都会从后端DB加载数据并回设到缓存,这个时候大并发的请求可能会瞬间把后端DB压垮。

缓存雪崩与缓存击穿的区别在于这里针对很多key缓存,前者则是某一个key

解决

  1. 构建多级缓存架构

    nginx缓存 + redis缓存 +其他缓存(ehcache等)

  2. 使用锁或队列

    用加锁或者队列的方式来保证不会有大量的线程对数据库一次性进行读写,从而避免失效时大量的并发请求落到底层存储系统上。不适用高并发情况

  3. 设置过期标志更新缓存

    记录缓存数据是否过期(设置提前量),如果过期会触发通知另外的线程在后台去更新实际key的缓存

  4. 将缓存失效时间分散开

    比如可以在原有的失效时间基础上增加一个随机值,比如1-5分钟随机,这样每一个缓存的过期时间的重复率就会降低,就很难引发集体失效的事件。

分布式锁

问题

随着业务发展的需要,原单体单机部署的系统被演化成分布式集群系统后,由于分布式系统多线程、多进程并且分布在不同机器上,这将使原单机部署情况下的并发控制锁策略失效,单纯的Java API并不能提供分布式锁的能力。为了解决这个问题就需要一种跨JVM的互斥机制来控制共享资源的访问,这就是分布式锁要解决的问题。

解决

主流实现方案

  1. 基于数据库实现分布式锁
  2. 基于缓存(Redis等)
  3. 基于Zookeeper

这里,基于redis实现分布式锁。

等学了分布式再说

新功能

ACL

简介

Redis ACL是Access Control List(访问控制列表)的缩写,该功能允许根据可以执行的命令和可以访问的键来限制某些连接。

在Redis 5版本之前,Redis 安全规则只有密码控制 还有通过 rename 来调整高危命令比如 flushdb , KEYS* , shutdown 等。Redis 6 则提供ACL的功能对用户进行更细粒度的权限控制 :

(1)接入权限:用户名和密码

(2)设置可以执行的命令

(3)设置可以操作的 KEY

命令

1)acl list:展现用户权限列表

1
2
127.0.0.1:6379> acl list
1) "user default on #4813494d137e1631bba301d5acab6e7bb7aa74ce1185d456565ef51d737677b2 ~* &* +@all"

default:用户名;on:是否启用;#…:密码;~*:可操作的key;+@all”:可执行的命令

2)acl cat:查看指令,也可指定类型

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
127.0.0.1:6379> acl cat 
1) "keyspace"
2) "read"
3) "write"
4) "set"
5) "sortedset"
6) "list"
7) "hash"
8) "string"
9) "bitmap"
10) "hyperloglog"
11) "geo"
12) "stream"
13) "pubsub"
14) "admin"
15) "fast"
16) "slow"
17) "blocking"
18) "dangerous"
19) "connection"
20) "transaction"
21) "scripting"
127.0.0.1:6379> acl cat set
1) "sdiffstore"
2) "smembers"
3) "smove"
4) "sinterstore"
5) "srandmember"
6) "sunionstore"
7) "sismember"
8) "sinter"
9) "spop"
10) "scard"
11) "sort"
12) "sdiff"
13) "smismember"
14) "sadd"
15) "sunion"
16) "srem"
17) "sscan"

3)acl whoami:查看当前用户

1
2
127.0.0.1:6379> acl whoami
"default"

4)acl setuser …:创建和编辑用户ACL

ACL规则

启动和禁用用户:

参数 说明
on 激活某用户账号
off 禁用某用户账号。注意,已验证的连接仍然可以工作。如果默认用户被标记为off,则新连接将在未进行身份验证的情况下启动,并要求用户使用AUTH选项发送AUTH或HELLO,以便以某种方式进行身份验证。

权限的添加删除:

参数 说明
+command 将指令添加到用户可以调用的指令列表中
-command 从用户可执行指令列表移除指令
+@category 添加该类别中用户要调用的所有指令,有效类别为@admin、@set、@sortedset…等,通过调用ACL CAT命令查看完整列表。特殊类别@all表示所有命令,包括当前存在于服务器中的命令,以及将来将通过模块加载的命令。
-@actegory 从用户可调用指令中移除类别
allcommands +@all的别名
nocommand -@all的别名

可操作键的添加或删除

参数 说明
~pattern 添加可作为用户可操作的键的模式。例如~*允许所有的键

IO多线程

Redis6加入多线程,多线程只是用来处理网络数据的读写和协议解析,执行命令仍然是单线程。

多线程IO默认也是不开启的,需要再配置文件中配置:

1
2
io-threads-do-reads  yes 
io-threads 4

工具支持

之前老版Redis想要搭集群需要单独安装ruby环境,Redis 5 将 redis-trib.rb 的功能集成到 redis-cli 。另外官方 redis-benchmark 工具开

始支持 cluster 模式了,通过多线程的方式对多个分片进行压测。