1. Redis

  Redis是目前一个非常优秀的key-value存储系统(内存的NoSQL数据库)。和Memcached类似,它支持存储的value类型相对更多,包括string(字符串)、list(链表)、set(集合)、zset(sorted set有序集合)和hash(哈希类型)。

1.1 redis的安装(源码安装方式,官网供下载的redis,没有编译的,需要自己编译)

(1)下载redis4的稳定版本  

(2)上传redis-4.0.14.tar.gz到Linux服务器

(3)解压redis源码包,至指定的位置

  1. tar -zxvf redis-4.0.14.tar.gz -C /usr/local/src/ // 一般源码类放此文件夹,也可以自己选个位置

(4)进入到源码包中,编译

   cd /usr/local/src/redis-4.0.14/

   make

若报如下错:

没有安装C语言的环境,redis的开发语言为C

(5)在linux中安装C语言环境

  • 有网的情况下
  1. yum -y install gcc // 有网的情况下
  • 无网的情况,

  配置本地yum源,具体见大数据学习day02

  1. yum list | grep gcc // 查看yum源中的gcc版本

安装C语言环境

  1. yum -y install gcc gcc-c++

(7)重新编译

make

如果报如下错

解决办法:

  1. make MALLOC=libc

(8)安装

  1. make install

(9) 在/usr/local/下创建一个redis目录,然后拷贝redis自带的配置文件redis.conf到/usr/local/redis中

  1. mkdir /usr/local/redis
  2. cp /usr/local/src/redis-4.0.14/redis.conf /usr/local/redis

(10).修改当前机器的配置文件redis.conf

  1. bind 172.16.200.103 127.0.0.1
  2. daemonize yes #redis后台运行
  3. requirepass 123456 #指定redis的密码
  4. dir /data/redis #redis数据存储的位置
  5. appendonly yes #开启aof日志,它会每次写操作都记录一条日志

(11)启动redis节点

  1. redis-server /usr/local/redis/redis.conf

(12)查看redis进程状态

  1. ps -ef | grep redis

如下,表示启动成功

(13)使用命令登录

  1. redis-cli -h 192.168.57.11 -p 6379

此时需要验证密码,否则没有操作权限

  1. auth feng

2 Redis客户端

2.1 redis自带的客户端

指定启动参数:-h;指定主机IP   -p:指定主机端口; 验证密码: auth 密码

    

Redis安装成功之后,默认有16个数据库(可在redis.conf文件中看到,如下图),每个库之间是互相独立的。

默认存储的数据是放到db0中的,切换数据库的命令:select 数据库编号

补充:

  关闭redis的命令

 2.2 java客户端

2.2.1 jedis介绍

 Redis不仅是使用命令来操作,现在基本上主流的语言都有客户端支持,比如java、C、C#、C++、php、Node.js、Go等。   

 在官方网站里列一些Java的客户端,有Jedis、Redisson、Jredis、JDBC-Redis、等其中官方推荐使用Jedis和Redisson。 在企业中用的最多的就是Jedis,下面我们就重点学习下Jedis。

Jedis同样也是托管在github上,地址:https://github.com/xetorthio/jedis

2.2.2 搭建maven工程

创建一个maven    project并导入jar包依赖。

添加pom依赖:

  1. <dependencies>
  2.  
  3. <dependency>
  4. <groupId>redis.clients</groupId>
  5. <artifactId>jedis</artifactId>
  6. <version>3.0.1</version>
  7. </dependency>
  8.  
  9. </dependencies>

3.2.3 单实例链接redis

  1. public class RedisClient {
  2. public static void main(String[] args) {
  3. // 指定主机名和端口
  4. Jedis jedis = new Jedis("feng05", 6379);
  5. jedis.auth("feng");
  6. //选择使用哪个db,默认使用db0
  7. jedis.select(0);
  8. // 测试连通
  9. String ping = jedis.ping();
  10. System.out.println(ping);
  11. // 关闭链接
  12. jedis.close();
  13. }
  14. }

3.2.3 使用连接池连接redis

  1. public class RedisClient2 {
  2. public static void main(String[] args) {
  3. // 创建连接池
  4. JedisPool pool = new JedisPool("feng05", 6379);
  5. // 通过连接池获取jedis实例
  6. Jedis jedis1 = pool.getResource();
  7. Jedis jedis2 = pool.getResource();
  8. jedis1.auth("feng");
  9. jedis2.auth("feng");
  10. jedis1.set("name","zs");
  11. String name = jedis2.get("name");
  12. System.out.println(name);
  13. }
  14. }

3.Redis的数据类型(见redis文档)  

Redis中存储数据是通过key-value存储的,对于value的类型有以下几种:

 

在redis中的命令语句中,命令是忽略大小写的,而key是不忽略大小写的。

3.1 String数据类型操作

 删除所有的数据  flushdb ,注意 慎用该命令   

(1)设置k-v:set key value   

  1. OK
  2. 127.0.0.1:6379> keys *
  3. 1) "name"
  4. 127.0.0.1:6379> get name
  5. "zhangsan"
  6. 127.0.0.1:6379> set age 18
  7. OK
  8. 127.0.0.1:6379> get age
  9. "18"

(2)自增(incr),自减(decr),自增(减)指定数值(子增减的步长) : incrby   decrby

  1. 127.0.0.1:6379> incr age
  2. (integer) 19
  3. 127.0.0.1:6379> incr name
  4. (error) ERR value is not an integer or out of range
  5. 自增指定数值(自增的步长) incrby decrby
  6. 127.0.0.1:6379>incrby age 2
  7. (integer) 21

(3)删除:  del 

  1. 127.0.0.1:6379> del name
  2. (integer) 1
  3. 127.0.0.1:6379> del xxx
  4. (integer) 0

(4)同时设置,获取多个键值

语法:

  1. MSET key value [key value …]
  2. MGET key [key …]

  1. 127.0.0.1:6379> mset k1 v1 k2 v2 k3 v3
  2. OK
  3. 127.0.0.1:6379> get k1
  4. "v1"
  5. 127.0.0.1:6379> mget k1 k3
  6. 1) "v1"
  7. 2) "v3"

(5)STRLEN命令返回键值的长度,如果键不存在则返回0 :STRLEN key

  1. 127.0.0.1:6379> strlen str
  2. (integer) 0
  3. 127.0.0.1:6379> set str hello
  4. OK
  5. 127.0.0.1:6379> strlen str
  6. (integer) 5

4.kafka

4.1 Kafka的概念  

(1)Broker:安装了kafka的服务器

(2)Topic:主题,数据的分类,类似数据库中的表

(3)partition:分区,分区越多,并发能力越强,单个分区内的数据是有序的,若同一个broker中有多个leader分区,多个分区中的数据整体并不是有序的。分区的leader分区和folower由zk选举  

    leader分区负责读写(生产者和消费者连到Leader分区,folower分区负责同步数据)

(4)replication:副本,将数据存储多份,保证数据不丢

(5)Producer:消息的生产者,将数据发送到指定topic的leader分区

(6)Consumer:消息的消费者,从指定Topic的leader分区拉取数据,消费者会管理偏移量(记录数据读取到什么地方,避免数据重复消费)

(7)Consumer Group:消费者组,一个组中可以有多个消费者,数据不会重复消费

4.2 Kafka集群架构图

不同消费者组中的消费者可以消费同一个分区的数据,他们互不影响(各自记录各自的偏移量,都可以读取该分区内的所有数据)

总结:

.Kafka的生成者直接向Broker的Leader分区写入数据,不需要连接ZK

.Kafka的消费者(老的API需要先连接ZK,获取Broker信息和偏移量信息),新的API不需要连接ZK(直连方式,效率更高)

4.3 kafka集群的安装

前提:安装zookeeper,并启动

(1)上传kafka安装包,解压到自己想要的地址

(2)修改配置文件

  1. #指定broker的id
  2. broker.id=1
  3. #数据存储的目录
  4. log.dirs=/data/kafka
  5. #指定zk地址
  6. zookeeper.connect=feng05:2181,feng06:2181,feng07:2181
  7. #可以删除topic的数据(一般测试的时候才配置此)
  8. delete.topic.enable=true

(3)将配置好的kafka拷贝到其他节点

  1. [root@feng05 apps]# scp -r kafka_2.11-1.1.1 feng06:$PWD

(4)修改其他节点Kafka的broker.id

(5)在所有节点启动kafka

  1. /usr/apps/kafka_2.11-1.1.1/bin/kafka-server-start.sh -daemon /usr/apps/kafka_2.11-1.1.1/config/server.properties

注意:此处不加-daemon的话,开启kafka是以守护进程的形式开启,加上-daemon就是以后台的形式开启kafka

(6)查看启动是否成功

至此安装完毕

 4.4 一些简单命令

(1)查看kafka的topic

  1. /usr/apps/kafka_2.11-1.1.1/bin/kafka-topics.sh --list --zookeeper localhost:2181

(2)创建topic

  1. /usr/apps/kafka_2.11-1.1.1/bin/kafka-topics.sh --zookeeper feng05:2181 --create --topic wordcount --replication-factor 3 --partitions 3

(3)启动一个命令行生产者

  1. /usr/apps/kafka_2.11-1.1.1/bin/kafka-console-producer.sh --broker-list feng05:9092,feng06:9092,feng07:9092 --topic wordcount

(4)启动一个命令消费者

  1. /usr/apps/kafka_2.11-1.1.1/bin/kafka-console-consumer.sh --bootstrap-server feng05:9092 --topic wordcount --from-beginning

--from-beginning 消费以前产生的所有数据,如果不加,就是消费消费者启动后产生的数据

(5)删除topic(只有配置文件配置了可以删除topic,此操作才有用)

  1. /usr/apps/kafka_2.11-1.1.1/bin/kafka-topics.sh --delete --topic wordcount --zookeeper localhost:2

(6) 查看topic详细信息

  1. /usr/apps/kafka_2.11-1.1.1/bin/kafka-topics.sh --zookeeper localhost:2181 --describe --topic wordcount

分区的详细信息

(7) 查看某个topic的偏移量

  1. /usr/apps/kafka_2.11-1.1.1/bin/kafka-console-consumer.sh --topic __consumer_offsets --bootstrap-server feng05:9092,feng06:9092,feng07:9092 --formatter "kafka.coordinator.group.GroupMetadataManager\$OffsetsMessageFormatter" --consumer.config config/consumer.properties --from-beginning

5.kafka  java客户端

前提:导入kafka的依赖

  1. <dependency>
  2. <groupId>org.apache.kafka</groupId>
  3. <artifactId>kafka-clients</artifactId>
  4. <version>1.1.1</version>
  5. </dependency>

5.1 生产者

  1. package cn._51doit.kafka.clients
  2.  
  3. import java.util.{Properties, UUID}
  4.  
  5. import org.apache.kafka.clients.producer.{KafkaProducer, ProducerRecord}
  6. import org.apache.kafka.common.serialization.StringSerializer
  7.  
  8. object ProducerDemo {
  9.  
  10. def main(args: Array[String]): Unit = {
  11.  
  12. // 1 配置参数
  13. val props = new Properties()
  14. // 连接kafka节点
  15. props.setProperty("bootstrap.servers", "node-1.51doit.cn:9092,node-2.51doit.cn:9092,node-3.51doit.cn:9092")
  16. //指定key序列化方式
  17. props.setProperty("key.serializer", "org.apache.kafka.common.serialization.StringSerializer")
  18. //指定value序列化方式
  19. props.setProperty("value.serializer", classOf[StringSerializer].getName) // 两种写法都行
  20.  
  21. val topic = "wordcount"
  22.  
  23. // 2 kafka的生产者
  24. val producer: KafkaProducer[String, String] = new KafkaProducer[String, String](props)
  25.  
  26. for (i <- 41 to 50) {
  27. // 3 封装的对象
  28.  
  29. //将数据发送到指定的分区编号
  30. //val record = new ProducerRecord[String, String](topic, 1 , "abc","myvalue:"+i)
  31.  
  32. //val partitionNum = i % 4 // 指定数据均匀写入4个分区中
  33. //val record = new ProducerRecord[String, String](topic, partitionNum, null,"myvalue:"+i)
  34.  
  35. //不指定分区编号,指定key, 分区编号 = key.hasacode % 4
  36. //val record = new ProducerRecord[String, String](topic , "abc","myvalue:"+i)
  37.  
  38. //根据key的hashcode值模除以topic分区的数量,返回一个分区编号
  39. //val record = new ProducerRecord[String, String](topic , UUID.randomUUID().toString ,"myvalue:"+i)
  40.  
  41. //没有指定Key和分区,默认的策略就是轮询,将数据均匀写入多个分区中
  42. val record = new ProducerRecord[String, String](topic,"value-" + i)
  43.  
  44. // 4 发送消息
  45. producer.send(record)
  46.  
  47. }
  48.  
  49. println("message send success")
  50.  
  51. // 释放资源
  52. producer.close()
  53. }
  54. }

5.2 消费者

  1. package cn._51doit.kafka.clients
  2.  
  3. import java.util
  4. import java.util.Properties
  5.  
  6. import org.apache.kafka.clients.consumer.{ConsumerRecords, KafkaConsumer}
  7. import org.apache.kafka.common.serialization.StringDeserializer
  8.  
  9. object ConsumerDemo {
  10.  
  11. def main(args: Array[String]): Unit = {
  12.  
  13. // 1 配置参数
  14. val props = new Properties()
  15. //从哪些broker消费数据
  16. props.setProperty("bootstrap.servers", "node-1.51doit.cn:9092,node-2.51doit.cn:9092,node-3.51doit.cn:9092")
  17. // 反序列化的参数
  18. props.setProperty("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer")
  19. props.setProperty("value.deserializer",classOf[StringDeserializer].getName)
  20. // 指定group.id
  21. props.setProperty("group.id","g101")
  22.  
  23. // 指定消费的offset从哪里开始
  24. //earliest:从头开始 --from-beginning
  25. //latest:从消费者启动之后
  26. props.setProperty("auto.offset.reset","earliest") //[latest, earliest, none]
  27.  
  28. // 是否自动提交偏移量 offset
  29. // enable.auto.commit 默认值就是true【5秒钟更新一次】,消费者定期会更新偏移量 groupid,topic,parition -> offset
  30. // props.setProperty("enable.auto.commit","false") // kafka自动维护偏移量 手动维护偏移量
  31.  
  32. //enable.auto.commit 5000
  33.  
  34. // 2 消费者的实例对象
  35. val consumer: KafkaConsumer[String, String] = new KafkaConsumer[String, String](props)
  36.  
  37. // 订阅 参数类型 java的集合
  38. val topic: util.List[String] = java.util.Arrays.asList("wordcount")
  39.  
  40. // 3 订阅主题
  41. consumer.subscribe(topic)
  42.  
  43. while (true){
  44. // 4 拉取数据
  45. val msgs: ConsumerRecords[String, String] = consumer.poll(2000)
  46.  
  47. import scala.collection.JavaConversions._
  48. for(cr <- msgs){
  49. // ConsumerRecord[String, String]
  50. println(cr)
  51. }
  52. }
  53.  
  54. //consumer.close()
  55.  
  56. }
  57. }

   

大数据学习day31------spark11-------1. Redis的安装和启动,2 redis客户端 3.Redis的数据类型 4. kafka(安装和常用命令)5.kafka java客户端的更多相关文章

  1. 大数据学习day15----第三阶段----scala03--------1.函数(“_”的使用, 函数和方法的区别)2. 数组和集合常用的方法(迭代器,并行集合) 3. 深度理解函数 4 练习(用java实现类似Scala函数式编程的功能(不能使用Lambda表达式))

    1. 函数 函数就是一个非常灵活的运算逻辑,可以灵活的将函数传入方法中,前提是方法中接收的是类型一致的函数类型 函数式编程的好处:想要做什么就调用相应的方法(fliter.map.groupBy.so ...

  2. 大数据学习:storm流式计算

    Storm是一个分布式的.高容错的实时计算系统.Storm适用的场景: 1.Storm可以用来用来处理源源不断的消息,并将处理之后的结果保存到持久化介质中. 2.由于Storm的处理组件都是分布式的, ...

  3. java 与大数据学习较好的网站

    C# C#中 Thread,Task,Async/Await,IAsyncResult 的那些事儿!https://www.cnblogs.com/doforfuture/p/6293926.html ...

  4. 大数据学习路线,来qun里分享干货,

    一.Linux lucene: 全文检索引擎的架构 solr: 基于lucene的全文搜索服务器,实现了可配置.可扩展并对查询性能进行了优化,并且提供了一个完善的功能管理界面. 推荐一个大数据学习群 ...

  5. 大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

    引言 在大数据学习系列之一 ----- Hadoop环境搭建(单机) 成功的搭建了Hadoop的环境,在大数据学习系列之二 ----- HBase环境搭建(单机)成功搭建了HBase的环境以及相关使用 ...

  6. 大数据学习系列之五 ----- Hive整合HBase图文详解

    引言 在上一篇 大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机) 和之前的大数据学习系列之二 ----- HBase环境搭建(单机) 中成功搭建了Hive和HBase的环 ...

  7. 大数据学习系列之六 ----- Hadoop+Spark环境搭建

    引言 在上一篇中 大数据学习系列之五 ----- Hive整合HBase图文详解 : http://www.panchengming.com/2017/12/18/pancm62/ 中使用Hive整合 ...

  8. 大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 图文详解

    引言 在之前的大数据学习系列中,搭建了Hadoop+Spark+HBase+Hive 环境以及一些测试.其实要说的话,我开始学习大数据的时候,搭建的就是集群,并不是单机模式和伪分布式.至于为什么先写单 ...

  9. 大数据学习系列之九---- Hive整合Spark和HBase以及相关测试

    前言 在之前的大数据学习系列之七 ----- Hadoop+Spark+Zookeeper+HBase+Hive集群搭建 中介绍了集群的环境搭建,但是在使用hive进行数据查询的时候会非常的慢,因为h ...

随机推荐

  1. 最小的K个数 牛客网 剑指Offer

    最小的K个数 牛客网 剑指Offer 题目描述 输入n个整数,找出其中最小的K个数.例如输入4,5,1,6,2,7,3,8这8个数字,则最小的4个数字是1,2,3,4,. class Solution ...

  2. 阿里云ECI如何6秒扩容3000容器实例?

    引言 根据最新CNCF报告,有超过90%的用户在生产环境使用容器,并且有超过80%的用户通过Kubernetes管理容器.是不是我们的生产环境上了K8s就完美解决了应用部署的问题?IT界有句俗语,没有 ...

  3. pycharm基本使用与破解

    一.pycharm基本使用 pycharm这款ide软件虽然功能强大,但正因为他的强大,所以小白在刚使用这款软件时上手会有点难度,今天我们就来介绍一下ptcharm的基本使用. 1.基本配置 我们安装 ...

  4. k8s入坑之路(12)ingress-nginx安装配置四层代理

    ingress官方文档地址:http://docs.kubernetes.org.cn/  https://feisky.gitbooks.io/kubernetes/content/plugins/ ...

  5. 一看就懂的IdentityServer4认证授权设计方案

    查阅了大多数相关资料,总结设计一个IdentityServer4认证授权方案,我们先看理论,后设计方案. 1.快速理解认证授权 我们先看一下网站发起QQ认证授权,授权通过后获取用户头像,昵称的流程. ...

  6. 截取oracle字符串中的数字

    方法一:如果Oracle版本不是太低的话,使用 正则表达式函数 REGEXP_SUBSTR 处理. REGEXP_SUBSTR有5个参数,分别是: 第一个是输入的字符串 第二个是正则表达式 第三个是标 ...

  7. Python基础(API接口测试)

    import flask,json,pymysql from flask import request, jsonify, Response from datetime import datetime ...

  8. python实现图片色素的数值运算(加减乘除)和逻辑运算(与或非异或)

    目录: (一)数值运算(加减乘除) (二)逻辑运算(与或非异或) 正文: (一)数值运算(加减乘除) opencv自带图片色素的处理函数------相加:add()   相减:subtract()  ...

  9. python实现色彩空间转换

    目录: (一)调用转换函数实现图像色彩空间转换------ cv2.cvtColor函数 (二)色彩空间转换,利用inrange函数过滤视频中的颜色,实现跟踪某一颜色 正文: (一)调用转换函数实现图 ...

  10. [loj3043]线段树

    考虑把每一个区间单独统计,令$f[i]$表示第i个区间有标记的次数,$g[i]$表示第i个区间及其祖先中存在标记的次数,然后对于操作将所有区间分为5类(T为已执行操作个数): 1.被修改,那么$f[i ...