前面已经讲到了,在Kafka中,Message是由Producer产生的,Producer产生的Message会发送到Topic的指定Partition中。Producer可以有多种形式,也可以由用户通过Java,C以及Python语言来自定义。

  Kafka中Producer的主要作用和地位如下图所示,Producer通过获取某个Topic指定Partition的Leader节点连接到Kafka集群中,

一、Java Producer API

  用户可以基于Kafka提供的API自定义Producer,在这些API中有几个主要的类:

1. kafka.javaapi.producer.Producer

  类定义:

class Producer[ K,V ](private val underlying: kafka.producer.Producer[K ,V])

  UML图:

  

2. kafka.producer.ProducerConfig

  类定义:   

class ProducerConfig private (val props: VerifiableProperties)
extends AsyncProducerConfig with SyncProducerConfigShared

  UML图:

  

3. kafka.producer.KeyedMessage

  类定义:

case class KeyedMessage[ K, V ](val topic: String, val key: K, val partKey: Any , val message: V)

二、自定义简单的Producer

  接下来根据上面的三个类,使用Java代码实现一个简单的Producer向Broker发送Message。这个Producer会为特定的Topic生成Message并发送到默认的Partition中。

  具体代码和过程在代码和注释中。

1、Java代码

package ckm.kafka.producer;

import kafka.javaapi.producer.Producer;
import kafka.producer.KeyedMessage;
import kafka.producer.ProducerConfig; import java.util.Date;
import java.util.Properties; /**
* 一个简单的Kafka Producer类,传入两个参数:
* topic num
* 设置主题和message条数
*
* 执行过程:
* 1、创建一个topic
* kafka-topic.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 3 --topic xxxx
* 2、运行本类中的代码
* 3、查看message
* kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic xxxx
* kafka
*/
public class SimpleKafkaProducer {
/**
* Producer的两个泛型,第一个指定Key的类型,第二个指定value的类型
*/
private static Producer<String, String> producer; public SimpleKafkaProducer() {
Properties props = new Properties();
/**
* 指定producer连接的broker列表
*/
props.put("metadata.broker.list", "m000:9092, m001:9092, m002:9092");
/**
* 指定message的序列化方法,用户可以通过实现kafka.serializer.Encoder接口自定义该类
* 默认情况下message的key和value都用相同的序列化,但是可以使用"key.serializer.class"指定key的序列化
*/
props.put("serializer.class", "kafka.serializer.StringEncoder");
/**
* 这个参数用于通知broker接收到message后是否向producer发送确认信号
* 0 - 表示producer不用等待任何确认信号,会一直发送消息,
* 否则producer进入等待状态
* -1 - 表示leader状态的replica需要等待所有in-sync状态的replica都接收到消息后才会向producer发送确认信号,
* 再次之前producer一直处于等待状态
*/
props.put("request.required.acks", "1");
ProducerConfig config = new ProducerConfig(props); producer = new Producer<String, String>(config);
} public static void main(String[] args) {
if (args.length < 2) {
System.out.println("Please Input Topic and Message Numbers");
}
String topic = (String) args[0];
int count = Integer.parseInt((String) args[1]);
System.out.println("Topic = " + topic);
System.out.println("Message Nums = " + count); SimpleKafkaProducer simpleProducer = new SimpleKafkaProducer();
simpleProducer.publishMessage(topic, count);
} /**
* 根据topic和消息条数发送消息
* @param topic
* @param count
*/
private void publishMessage(String topic, int count) {
for (int i = 0; i < count; i ++) {
String runtime = new Date().toString();
String msg = "Message published time - " + runtime;
System.out.println("msg = " + msg);
/**
* 第一个泛型指定用于分区的key的类型,第二个泛型指message的类型
* topic只能为String类型
*/
KeyedMessage<String, String> data = new KeyedMessage<String, String>(topic, msg);
producer.send(data);
}
producer.close();
}
}

2、运行

(1)启动ZooKeeper

$ZK_HOME/bin/zkServer.sh start



(2)启动Kafka集群

cd $KAFKA_HOME
nohup bin/kafka-server-start.sh config/server.properties &



(3)创建测试Topic

$KAFKA_HOME/bin/kafka-topics.sh --create --zookeeper m000:2181 --replication-factor 1 --partition 3 --topic simple-kafka-producer



(4)运行SimpleKafkaProducer 代码

  运行该代码,向simple-kafka-producer Topic发送10条Message

java -cp KafkaTestProgram.jar ckm.kafka.producer.SimpleKafkaProducer simple-kafka-producer 10



(5)查看simple-kafka-producer中的Message

bin/kafka-console-consumer.sh --zookeeper m000:2181 --from-beginning --topic simple-kafka-producer

三、自定义Partition的Producer

  这一节中除了实现Producer之外,还自定义了Message的Partition划分过程。

  在这里,将会模拟一个网页访问日志生成的过程,每条随机生成的日志Message中包含三个部分的信息:

- 页面访问时间戳

- 页面名称

- 访问页面的IP地址

  

1、Java代码

(1)Producer

package ckm.kafka.producer;

import kafka.javaapi.producer.Producer;
import kafka.producer.KeyedMessage;
import kafka.producer.ProducerConfig; import java.util.Date;
import java.util.Properties;
import java.util.Random; /**
* 一个自定义分区的Kafka Producer类,传入两个参数:
* topic num
* 设置主题和message条数
*
* 模拟用户点击日志,日志格式为:“时间,网址,IP地址"格式
*
* 自定义分区,通过IP地址最后一位与分区数求余,message分散到0~partition - 1这些分区中
*
* 执行过程:
* 1、创建一个topic
* kafka-topic.sh --create --zookeeper localhost:2181 --replication-factor 3 --partitions 3 --topic xxxx
* 2、运行本类中的代码
* 3、查看message
* kafka-console-consumer.sh --zookeeper localhost:2181 --from-beginning --topic xxxx
* kafka
*/
public class KafkaProducerWithPartition {
/**
* Producer的两个泛型,第一个指定Key的类型,第二个指定value的类型
*/
private static Producer<String, String> producer; public KafkaProducerWithPartition() {
Properties props = new Properties();
/**
* 指定producer连接的broker列表
*/
props.put("metadata.broker.list", "m000:9092, m001:9092, m002:9092");
/**
* 指定message的序列化方法,用户可以通过实现kafka.serializer.Encoder接口自定义该类
* 默认情况下message的key和value都用相同的序列化,但是可以使用"key.serializer.class"指定key的序列化
*/
props.put("serializer.class", "kafka.serializer.StringEncoder");
/**
* 这个参数用于通知broker接收到message后是否向producer发送确认信号
* 0 - 表示producer不用等待任何确认信号,会一直发送消息
* 1 - 表示leader状态的replica在接收到message后需要向producer发送一个确认信号,否则producer进入等待状态
* -1 - 表示leader状态的replica需要等待所有in-sync状态的replica都接收到消息后才会向producer发送确认信号,再次之前producer一直处于等待状态
*/
props.put("request.required.acks", "1");
/**
* 指定partition类,自定义的分区类,继承自kafka.producer.Partitioner接口
*/
props.put("partitioner.class", "ckm.kafka.producer.SimplePartitioner");
ProducerConfig config = new ProducerConfig(props); producer = new Producer<String, String>(config);
} public static void main(String[] args) {
if (args.length < 2) {
System.out.println("Please Input Topic and Message Numbers");
}
String topic = (String) args[0];
int count = Integer.parseInt((String) args[1]);
System.out.println("Topic = " + topic);
System.out.println("Message Nums = " + count); KafkaProducerWithPartition simpleProducer = new KafkaProducerWithPartition();
simpleProducer.publishMessage(topic, count);
} /**
* 根据topic和消息条数发送消息
* @param topic
* @param count
*/
private void publishMessage(String topic, int count) {
Random random = new Random();
for (int i = 0; i < count; i ++) {
String runtime = new Date().toString();
// 访问的IP地址
String clientIP = "192.168.1." + random.nextInt(255);
String msg = runtime + ",kafka.apache.org," + clientIP;
System.out.println("msg = " + msg);
/**
* 第一个泛型指定用于分区的key的类型,第二个泛型指message的类型
* topic只能为String类型
* 和上一个Producer相比,多了一个用于分区的key
*/
KeyedMessage<String, String> data = new KeyedMessage<String, String>(topic, clientIP, msg);
producer.send(data);
}
producer.close();
}
}

(2)Partitioner

package ckm.kafka.producer;

import kafka.producer.Partitioner;
import kafka.utils.VerifiableProperties; /**
* Created by ckm on 2016/8/3.
*/
public class SimplePartitioner implements Partitioner {
/**
* 不写这个方法,会报错
* Exception in thread "main" java.lang.NoSuchMethodException: ckm.kafka.producer.SimplePartitioner.<init>(kafka.utils.VerifiableProperties)
* at java.lang.Class.getConstructor0(Class.java:2892)
* at java.lang.Class.getConstructor(Class.java:1723)
* at kafka.utils.Utils$.createObject(Utils.scala:436)
* at kafka.producer.Producer.<init>(Producer.scala:61)
* at kafka.javaapi.producer.Producer.<init>(Producer.scala:26)
* at ckm.kafka.producer.KafkaProducerWithPartition.<init>(KafkaProducerWithPartition.java:58)
* at ckm.kafka.producer.KafkaProducerWithPartition.main(KafkaProducerWithPartition.java:70)
* @param verifiableProperties
*/
public SimplePartitioner(VerifiableProperties verifiableProperties) { } public int partition(Object key, int numPartitions) {
int partition = 0;
String partitionKey = (String) key;
int offset = partitionKey.lastIndexOf('.');
if (offset > 0) {
partition = Integer.parseInt(partitionKey.substring(offset + 1)) % numPartitions;
}
return partition;
}
}

2、运行

  由于前面已经启动了ZooKeeper以及Kafka,这里直接从创建Topic开始

(1)创建Topic

  创建一个partition为3,replication为3的topic。

$KAFKA_HOME/bin/kafka-topics.sh --create --zookeeper m000:2181 --replication-factor 3 --partitions 3 --topic partition-kafka-producer



  如何使用list命令查看该Topic,可以参考前面的示例

 (2)运行Java代码

java -cp KafkaTestProgram.jar ckm.kafka.producer.KafkaProducerWithPartition partition-kafka-producer 100

  往partition-kafka-producer Topic中写入100条随机生成的Message。



(3)查看这些Message

$KAFKA_HOME/bin/kafka-console-consumer.sh --zookeeper m000:2181 --from-beginning --topic partition-kafka-producer

四、自定义Producer的封装

  上面两种自定义的Producer中,其实有很多代码是重复性的。接下来对Kafka自定义Producer进行一定的封装,使其使用和配置更加简便。

  经过封装后,producer有关的参数都写在properties文件中。

  第二步中的Producer的调用方法为:

KafkaProducerTool kafkaProducerTool = new KafkaProducerToolImpl();
kafkaProducerTool.publishMessage("test message");

  两行代码就可以将该message发送到配置的Kafka集群指定的topic中。

  第三步中的自定义Partitioner的Producer的调用方法为:

KafkaProducerTool kafkaProducerTool = new KafkaProducerToolImpl();
Properties producerProperties = kafkaProducerTool.getProducerProperties();
// 如果properties配置文件中没有配置该参数的话,手动设置
producerProperties.put("partitioner.class", "SimplePartitioner");
kafkaProducerTool.publishPartitionedMessage("partition-key", "test messate");

  具体代码可以参考KafkaProducerTool

  欢迎提出宝贵意见。

Kafka系列之-自定义Producer的更多相关文章

  1. Kafka系列之-Kafka Protocol实例分析

    本文基于A Guide To The Kafka Protocol文档,以及Spark Streaming中实现的org.apache.spark.streaming.kafka.KafkaClust ...

  2. Kafka系列之-Kafka监控工具KafkaOffsetMonitor配置及使用

    KafkaOffsetMonitor是一个可以用于监控Kafka的Topic及Consumer消费状况的工具,其配置和使用特别的方便.源项目Github地址为:https://github.com/q ...

  3. apache kafka系列之Producer处理逻辑

     最近研究producer的负载均衡策略,,,,我在librdkafka里边用代码实现了partition 值的轮询方法,,,但是在现场验证时,他的负载均衡不起作用,,,所以来找找原因: 下文是一篇描 ...

  4. Kafka系列2:深入理解Kafka消费者

    Kafka系列2:深入理解Kafka消费者 上篇聊了Kafka概况,包含了Kafka的基本概念.设计原理,以及设计核心.本篇单独聊聊Kafka的消费者,包括如下内容: 生产者是如何生产消息 如何创建生 ...

  5. Kafka系列一之架构介绍和安装

    Kafka架构介绍和安装 写在前面 还是那句话,当你学习一个新的东西之前,你总得知道这个东西是什么?这个东西可以用来做什么?然后你才会去学习它,使用它.简单来说,kafka既是一个消息队列,如今,它也 ...

  6. Kafka系列1:Kafka概况

    Kafka系列1:Kafka概况 Kafka是当前分布式系统中最流行的消息中间件之一,凭借着其高吞吐量的设计,在日志收集系统和消息系统的应用场景中深得开发者喜爱.本篇就聊聊Kafka相关的一些知识点. ...

  7. kafka C客户端librdkafka producer源码分析

    from:http://www.cnblogs.com/xhcqwl/p/3905412.html kafka C客户端librdkafka producer源码分析 简介 kafka网站上提供了C语 ...

  8. Kafka系列2-producer和consumer报错

    1. 使用127.0.0.1启动生产和消费进程: 1)启动生产者进程: bin/kafka-console-producer.sh --broker-list 127.0.0.1:9092 --top ...

  9. kafka系列四、kafka架构原理、高可靠性存储分析及配置优化

    一.概述 Kakfa起初是由LinkedIn公司开发的一个分布式的消息系统,后成为Apache的一部分,它使用Scala编写,以可水平扩展和高吞吐率而被广泛使用.目前越来越多的开源分布式处理系统如Cl ...

随机推荐

  1. SSH端口转发(本地转发、远程转发、动态转发)

    SSH端口转发   一:什么是端口转发?     SSH 会自动加密和解密所有SSH 客户端与服务端之间的网络数据.但是,SSH 还能够将其他TCP 端口的网络数据通过SSH 链接来转发,并且自动提供 ...

  2. [LeetCode] 4 Keys Keyboard 四键的键盘

    Imagine you have a special keyboard with the following keys: Key 1: (A): Print one 'A' on screen. Ke ...

  3. jstl标签库示例二

    package app05b;import java.io.IOException;import java.util.HashMap;import java.util.Map;import javax ...

  4. 关于sg90舵机的,要知道!要注意!

    这类舵机的转向跟频率和占空比相关,两者缺一不可! 1.在一个特定的频率下,特定的占空比使得舵机会转到一个角度,占空比不变,则角度不会不会变化,所以想要舵机动,就要在国定的频率下不断改变占空比. 2.当 ...

  5. 线性结构与树形结构相互转换(ES6实现)

    前言 当树形结构的层级越来越深时,操作某一节点会变得越来越费劲,维护成本不断增加.所以线性结构与树形的相互转换变得异常重要! 首先,我们约定树形结构如下: node = { id: number, / ...

  6. hy 的惩罚

    [问题描述] hy 抄题解又被老师抓住了,现在老师把他叫到了办公室. 老师要 hy 和他 玩一个游戏.如果 hy 输了,老师就要把他开除信息组:  游戏分为 k 轮.在游戏开始之前,老师会将 n 个由 ...

  7. CSAPP-程序优化

    代码移动: 如果一个表达式总是得到同样的结果,最好把它移动到循环外面,这样只需要计算一次.编译器有时候可以自动完成,比如说使用 -O1 优化.一个例子: void set_row(double *a, ...

  8. 51nod 1040 最大公约数之和(欧拉函数)

    1040 最大公约数之和 题目来源: rihkddd 基准时间限制:1 秒 空间限制:131072 KB 分值: 80 难度:5级算法题   给出一个n,求1-n这n个数,同n的最大公约数的和.比如: ...

  9. HDU 4501

    超市里有n件他想要的商品.小明顺便对这n件商品打了分,表示商品的实际价值.小明发现身上带了v1的人民币,会员卡里面有v2的积分,而且他能免费拿k件.他想知道他最多能买多大价值的商品. 由于小明想要的商 ...

  10. bzoj1069 [SCOI2007]最大土地面积 旋转卡壳

    1069: [SCOI2007]最大土地面积 Time Limit: 1 Sec  Memory Limit: 128 MBSubmit: 3767  Solved: 1501[Submit][Sta ...