博客
关于我
redis管道 发布订阅 事务
阅读量:691 次
发布时间:2019-03-17

本文共 1495 字,大约阅读时间需要 4 分钟。

可以通过如下网址学习redis

http://redis.cn/
命令–>bitcount
文档–>redis使用、redis管理
主从复制 高可用 集群

1.nc命令

yum install nc
建立socket连接:nc命令
在这里插入图片描述
连接到客户端,可以看到上面创建的k1。因此若没有redis客户端,通过nc命令也是可以执行的。
在这里插入图片描述
2.管道
管道:将多个命令 放到一个管道,降低通信成本

[root@localhost redis-6.2.1]# echo -e “abc\ncdf”

abc
cdf
[root@localhost redis-6.2.1]# echo -e “set k2 99\n incr k2\n get k2” | nc localhost 6379
+OK
:100
$3
100

3.冷启动

文档–>从文件中批量插入数据
redis冷启动:
server> cat d1.txt | redis-cli

4.发布订阅

redis发布订阅:订阅以后,发送的消息才会实时收到。
只要订阅了此消息,发送者发送的消息 都会看到。

客户端1推送消息:

127.0.0.1:6379> PUBLISH k1 hello

(integer) 0

客户端2订阅消息

127.0.0.1:6379> SUBSCRIBE k1

Reading messages… (press Ctrl-C to quit)

  1. “subscribe”
  2. “k1”
  3. (integer) 1
  4. “message”
  5. “k1”

客户端1再发生消息:

127.0.0.1:6379> PUBLISH k1 helloworld

(integer) 1

客户端2 实时收到此消息:

127.0.0.1:6379> SUBSCRIBE k1

Reading messages… (press Ctrl-C to quit)

  1. “subscribe”
  2. “k1”
  3. (integer) 1
  4. “message”
  5. “k1”
  6. “helloworld”

微信群可以查看历史聊天机构:

历史聊天记录存在什么地方?
数据全量在数据库,一般用redis做缓存。

获取数据:实时性数据采用发布订阅模式存储,历史性数据采用sorted set存储,更老的数据放入数据库。

写入数据:
方案1:客户端分别调 发布订阅、sorted_set、发送给kafka 慢慢写入数据库。问题:发送给发布订阅后,客户端挂掉。
方案2:三台redis,一台负责发布订阅,第二台也订阅此主题,收到消息后发送给sorted_set;第三台也订阅此主题,收到消息后,发送给kafka,由kafka写入数据库。
在这里插入图片描述
zremrangebyrank
时间作为分值 消息作为元素
help @sorted_set 查看此结构的用法

两个redis保证消息落库不丢失。

在这里插入图片描述
另一个是用事务。

5.redis事务

在这里插入图片描述
multi 是开启事务的命令;exec是发送的命令结束的指令 此命令发送后 开始执行命令。

127.0.0.1:6379> MULTI

OK
127.0.0.1:6379(TX)> set k1 aaa
QUEUED
127.0.0.1:6379(TX)> set k2 bbb
QUEUED
127.0.0.1:6379(TX)> EXEC

  1. OK
  2. OK

谁的exec先到达,会先执行谁的命令:

在这里插入图片描述
watch:
会在multi命令前,先发送watch命令,意思是监控。
如监控此时k1为2,黄色客户端命令改变k1的值时,后续绿色的再获取k1的值,会不执行,绿色的事务会消失。
在这里插入图片描述
在这里插入图片描述

转载地址:http://iwvhz.baihongyu.com/

你可能感兴趣的文章
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增删改数据分发及删除数据实时同步_通过分页解决变更记录过大问题_02----大数据之Nifi工作笔记0054
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_增加修改实时同步_使用JsonPath及自定义Python脚本_03---大数据之Nifi工作笔记0055
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表多表增量同步_插入修改删除增量数据实时同步_通过分页解决变更记录过大问题_01----大数据之Nifi工作笔记0053
查看>>
NIFI1.21.0通过Postgresql11的CDC逻辑复制槽实现_指定表或全表增量同步_实现指定整库同步_或指定数据表同步配置_04---大数据之Nifi工作笔记0056
查看>>
NIFI1.23.2_最新版_性能优化通用_技巧积累_使用NIFI表达式过滤表_随时更新---大数据之Nifi工作笔记0063
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现update数据实时同步_实际操作05---大数据之Nifi工作笔记0044
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_根据binlog实现数据实时delete同步_实际操作04---大数据之Nifi工作笔记0043
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置binlog_使用处理器抓取binlog数据_实际操作01---大数据之Nifi工作笔记0040
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_实现数据插入数据到目标数据库_实际操作03---大数据之Nifi工作笔记0042
查看>>
NIFI从MySql中增量同步数据_通过Mysql的binlog功能_实时同步mysql数据_配置数据路由_生成插入Sql语句_实际操作02---大数据之Nifi工作笔记0041
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_03_来吧用NIFI实现_数据分页获取功能---大数据之Nifi工作笔记0038
查看>>
NIFI从MySql中离线读取数据再导入到MySql中_不带分页处理_01_QueryDatabaseTable获取数据_原0036---大数据之Nifi工作笔记0064
查看>>