Maven依赖包:

  1. <dependency>
  2. <groupId>org.apache.kafka</groupId>
  3. <artifactId>kafka-clients</artifactId>
  4. <version>0.8.2.1</version>
  5. </dependency>
  6. <dependency>
  7. <groupId>org.apache.kafka</groupId>
  8. <artifactId>kafka_2.11</artifactId>
  9. <version>0.8.2.1</version>
  10. </dependency>

代码如下:

  1. import java.util.Properties;
  2. import org.apache.kafka.clients.producer.Callback;
  3. import org.apache.kafka.clients.producer.KafkaProducer;
  4. import org.apache.kafka.clients.producer.ProducerRecord;
  5. import org.apache.kafka.clients.producer.RecordMetadata;
  6. import org.slf4j.Logger;
  7. import org.slf4j.LoggerFactory;
  8. public class KafkaProducerTest {
  9. private static final Logger LOG = LoggerFactory.getLogger(KafkaProducerTest.class);
  10. private static Properties properties = null;
  11. static {
  12. properties = new Properties();
  13. properties.put("bootstrap.servers", "centos.master:9092,centos.slave1:9092,centos.slave2:9092");
  14. properties.put("producer.type", "sync");
  15. properties.put("request.required.acks", "1");
  16. properties.put("serializer.class", "kafka.serializer.DefaultEncoder");
  17. properties.put("partitioner.class", "kafka.producer.DefaultPartitioner");
  18. properties.put("key.serializer", "org.apache.kafka.common.serialization.ByteArraySerializer");
  19. //      properties.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
  20. properties.put("value.serializer", "org.apache.kafka.common.serialization.ByteArraySerializer");
  21. //      properties.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
  22. }
  23. public void produce() {
  24. KafkaProducer<byte[], byte[]> kafkaProducer = new KafkaProducer<byte[],byte[]>(properties);
  25. ProducerRecord<byte[],byte[]> kafkaRecord = new ProducerRecord<byte[],byte[]>(
  26. "test", "kkk".getBytes(), "vvv".getBytes());
  27. kafkaProducer.send(kafkaRecord, new Callback() {
  28. public void onCompletion(RecordMetadata metadata, Exception e) {
  29. if(null != e) {
  30. LOG.info("the offset of the send record is {}", metadata.offset());
  31. LOG.error(e.getMessage(), e);
  32. }
  33. LOG.info("complete!");
  34. }
  35. });
  36. kafkaProducer.close();
  37. }
  38. public static void main(String[] args) {
  39. KafkaProducerTest kafkaProducerTest = new KafkaProducerTest();
  40. for (int i = 0; i < 10; i++) {
  41. kafkaProducerTest.produce();
  42. }
  43. }
  44. }
  1. import java.util.List;
  2. import java.util.Map;
  3. import java.util.Properties;
  4. import org.apache.kafka.clients.consumer.ConsumerConfig;
  5. import org.apache.kafka.clients.consumer.ConsumerRecord;
  6. import org.apache.kafka.clients.consumer.ConsumerRecords;
  7. import org.apache.kafka.clients.consumer.KafkaConsumer;
  8. import org.slf4j.Logger;
  9. import org.slf4j.LoggerFactory;
  10. public class KafkaConsumerTest {
  11. private static final Logger LOG = LoggerFactory.getLogger(KafkaConsumerTest.class);
  12. public static void main(String[] args) {
  13. Properties properties = new Properties();
  14. properties.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,
  15. "centos.master:9092,centos.slave1:9092,centos.slave2:9092");
  16. properties.put(ConsumerConfig.GROUP_ID_CONFIG, "test-consumer-group");
  17. properties.put(ConsumerConfig.SESSION_TIMEOUT_MS, "1000");
  18. properties.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, "true");
  19. properties.put(ConsumerConfig.PARTITION_ASSIGNMENT_STRATEGY, "range");
  20. //      properties.put(ConsumerConfig.PARTITION_ASSIGNMENT_STRATEGY, "roundrobin");
  21. properties.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, "10000");
  22. properties.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,
  23. "org.apache.kafka.common.serialization.ByteArrayDeserializer");
  24. properties.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,
  25. "org.apache.kafka.common.serialization.ByteArrayDeserializer");
  26. KafkaConsumer<byte[], byte[]> kafkaConsumer = new KafkaConsumer<byte[], byte[]>(properties);
  27. kafkaConsumer.subscribe("test");
  28. //      kafkaConsumer.subscribe("*");
  29. boolean isRunning = true;
  30. while(isRunning) {
  31. Map<String, ConsumerRecords<byte[], byte[]>> results = kafkaConsumer.poll(100);
  32. if (null != results) {
  33. for (Map.Entry<String, ConsumerRecords<byte[], byte[]>> entry : results.entrySet()) {
  34. LOG.info("topic {}", entry.getKey());
  35. ConsumerRecords<byte[], byte[]> consumerRecords = entry.getValue();
  36. List<ConsumerRecord<byte[], byte[]>> records = consumerRecords.records();
  37. for (int i = 0, len = records.size(); i < len; i++) {
  38. ConsumerRecord<byte[], byte[]> consumerRecord = records.get(i);
  39. LOG.info("topic {} partition {}", consumerRecord.topic(), consumerRecord.partition());
  40. try {
  41. LOG.info("offset {} value {}", consumerRecord.offset(), new String(consumerRecord.value()));
  42. } catch (Exception e) {
  43. LOG.error(e.getMessage(), e);
  44. }
  45. }
  46. }
  47. }
  48. }
  49. kafkaConsumer.close();
  50. }
  51. }

发现KafkaConsumer的poll方法未实现

  1. @Override
  2. public Map<String, ConsumerRecords<K,V>> poll(long timeout) {
  3. // TODO Auto-generated method stub
  4. return null;
  5. }

后改为kafka.javaapi.consumer.SimpleConsumer实现,正常运行

    1. import java.nio.ByteBuffer;
    2. import java.util.ArrayList;
    3. import java.util.Collections;
    4. import java.util.HashMap;
    5. import java.util.List;
    6. import java.util.Map;
    7. import kafka.api.FetchRequest;
    8. import kafka.api.FetchRequestBuilder;
    9. import kafka.api.PartitionOffsetRequestInfo;
    10. import kafka.cluster.Broker;
    11. import kafka.common.ErrorMapping;
    12. import kafka.common.TopicAndPartition;
    13. import kafka.javaapi.FetchResponse;
    14. import kafka.javaapi.OffsetRequest;
    15. import kafka.javaapi.OffsetResponse;
    16. import kafka.javaapi.PartitionMetadata;
    17. import kafka.javaapi.TopicMetadata;
    18. import kafka.javaapi.TopicMetadataRequest;
    19. import kafka.javaapi.TopicMetadataResponse;
    20. import kafka.javaapi.consumer.SimpleConsumer;
    21. import kafka.message.MessageAndOffset;
    22. public class KafkaSimpleConsumerTest {
    23. private List<String> borkerList = new ArrayList<String>();
    24. public KafkaSimpleConsumerTest() {
    25. borkerList = new ArrayList<String>();
    26. }
    27. public static void main(String args[]) {
    28. KafkaSimpleConsumerTest kafkaSimpleConsumer = new KafkaSimpleConsumerTest();
    29. // 最大读取消息数量
    30. long maxReadNum = Long.parseLong("3");
    31. // 订阅的topic
    32. String topic = "test";
    33. // 查找的分区
    34. int partition = Integer.parseInt("0");
    35. // broker节点
    36. List<String> seeds = new ArrayList<String>();
    37. seeds.add("centos.master");
    38. seeds.add("centos.slave1");
    39. seeds.add("centos.slave2");
    40. // 端口
    41. int port = Integer.parseInt("9092");
    42. try {
    43. kafkaSimpleConsumer.run(maxReadNum, topic, partition, seeds, port);
    44. } catch (Exception e) {
    45. System.out.println("Oops:" + e);
    46. e.printStackTrace();
    47. }
    48. }
    49. public void run(long maxReadNum, String topic, int partition, List<String> seedBrokers, int port) throws Exception {
    50. // 获取指定topic partition的元数据
    51. PartitionMetadata metadata = findLeader(seedBrokers, port, topic, partition);
    52. if (metadata == null) {
    53. System.out.println("can't find metadata for topic and partition. exit");
    54. return;
    55. }
    56. if (metadata.leader() == null) {
    57. System.out.println("can't find leader for topic and partition. exit");
    58. return;
    59. }
    60. String leadBroker = metadata.leader().host();
    61. String clientName = "client_" + topic + "_" + partition;
    62. SimpleConsumer consumer = new SimpleConsumer(leadBroker, port, 100000, 64 * 1024, clientName);
    63. long readOffset = getLastOffset(consumer, topic, partition, kafka.api.OffsetRequest.EarliestTime(), clientName);
    64. int numErrors = 0;
    65. while (maxReadNum > 0) {
    66. if (consumer == null) {
    67. consumer = new SimpleConsumer(leadBroker, port, 100000, 64 * 1024, clientName);
    68. }
    69. FetchRequest req = new FetchRequestBuilder().clientId(clientName).addFetch(topic, partition, readOffset, 100000).build();
    70. FetchResponse fetchResponse = consumer.fetch(req);
    71. if (fetchResponse.hasError()) {
    72. numErrors++;
    73. short code = fetchResponse.errorCode(topic, partition);
    74. System.out.println("error fetching data from the broker:" + leadBroker + " reason: " + code);
    75. if (numErrors > 5)
    76. break;
    77. if (code == ErrorMapping.OffsetOutOfRangeCode()) {
    78. readOffset = getLastOffset(consumer, topic, partition, kafka.api.OffsetRequest.LatestTime(), clientName);
    79. continue;
    80. }
    81. consumer.close();
    82. consumer = null;
    83. leadBroker = findNewLeader(leadBroker, topic, partition, port);
    84. continue;
    85. }
    86. numErrors = 0;
    87. long numRead = 0;
    88. for (MessageAndOffset messageAndOffset : fetchResponse.messageSet(topic, partition)) {
    89. long currentOffset = messageAndOffset.offset();
    90. if (currentOffset < readOffset) {
    91. System.out.println("found an old offset: " + currentOffset + " expecting: " + readOffset);
    92. continue;
    93. }
    94. readOffset = messageAndOffset.nextOffset();
    95. ByteBuffer payload = messageAndOffset.message().payload();
    96. byte[] bytes = new byte[payload.limit()];
    97. payload.get(bytes);
    98. System.out.println(String.valueOf(messageAndOffset.offset()) + ": " + new String(bytes, "UTF-8"));
    99. numRead++;
    100. maxReadNum--;
    101. }
    102. if (numRead == 0) {
    103. try {
    104. Thread.sleep(1000);
    105. } catch (InterruptedException ie) {
    106. }
    107. }
    108. }
    109. if (consumer != null)
    110. consumer.close();
    111. }
    112. /**
    113. * 从活跃的Broker列表中找出指定Topic、Partition中的Leader Broker
    114. * @param seedBrokers
    115. * @param port
    116. * @param topic
    117. * @param partition
    118. * @return
    119. */
    120. private PartitionMetadata findLeader(List<String> seedBrokers, int port, String topic, int partition) {
    121. PartitionMetadata partitionMetadata = null;
    122. loop: for (String seedBroker : seedBrokers) {
    123. SimpleConsumer consumer = null;
    124. try {
    125. consumer = new SimpleConsumer(seedBroker, port, 100000, 64 * 1024, "leaderLookup");
    126. List<String> topics = Collections.singletonList(topic);
    127. TopicMetadataRequest topicMetadataRequest = new TopicMetadataRequest(topics);
    128. TopicMetadataResponse topicMetadataResponse = consumer.send(topicMetadataRequest);
    129. List<TopicMetadata> topicMetadatas = topicMetadataResponse.topicsMetadata();
    130. for (TopicMetadata topicMetadata : topicMetadatas) {
    131. for (PartitionMetadata pMetadata : topicMetadata.partitionsMetadata()) {
    132. if (pMetadata.partitionId() == partition) {
    133. partitionMetadata = pMetadata;
    134. break loop;
    135. }
    136. }
    137. }
    138. } catch (Exception e) {
    139. System.out.println("error communicating with broker [" + seedBroker + "] to find leader for [" + topic + ", " + partition + "] reason: " + e);
    140. } finally {
    141. if (consumer != null)
    142. consumer.close();
    143. }
    144. }
    145. if (partitionMetadata != null) {
    146. borkerList.clear();
    147. for (Broker replica : partitionMetadata.replicas()) {
    148. borkerList.add(replica.host());
    149. }
    150. }
    151. return partitionMetadata;
    152. }
    153. public static long getLastOffset(SimpleConsumer consumer, String topic, int partition, long whichTime, String clientName) {
    154. TopicAndPartition topicAndPartition = new TopicAndPartition(topic, partition);
    155. Map<TopicAndPartition, PartitionOffsetRequestInfo> requestInfo = new HashMap<TopicAndPartition, PartitionOffsetRequestInfo>();
    156. requestInfo.put(topicAndPartition, new PartitionOffsetRequestInfo(whichTime, 1));
    157. OffsetRequest request = new OffsetRequest(requestInfo, kafka.api.OffsetRequest.CurrentVersion(), clientName);
    158. OffsetResponse response = consumer.getOffsetsBefore(request);
    159. if (response.hasError()) {
    160. System.out.println("error fetching data offset data the broker. reason: " + response.errorCode(topic, partition));
    161. return 0;
    162. }
    163. long[] offsets = response.offsets(topic, partition);
    164. return offsets[0];
    165. }
    166. private String findNewLeader(String oldLeader, String topic, int partition, int port) throws Exception {
    167. for (int i = 0; i < 3; i++) {
    168. boolean goToSleep = false;
    169. PartitionMetadata metadata = findLeader(borkerList, port, topic, partition);
    170. if (metadata == null) {
    171. goToSleep = true;
    172. } else if (metadata.leader() == null) {
    173. goToSleep = true;
    174. } else if (oldLeader.equalsIgnoreCase(metadata.leader().host()) && i == 0) {
    175. goToSleep = true;
    176. } else {
    177. return metadata.leader().host();
    178. }
    179. if (goToSleep) {
    180. try {
    181. Thread.sleep(1000);
    182. } catch (InterruptedException ie) {
    183. }
    184. }
    185. }
    186. System.out.println("unable to find new leader after broker failure. exit");
    187. throw new Exception("unable to find new leader after broker failure. exit");
    188. }
    189. }

Kafka学习笔记-Java简单操作的更多相关文章

  1. HBase学习笔记——Java API操作

    1.1.  配置 HBaseConfiguration 包:org.apache.hadoop.hbase.HBaseConfiguration 作用:通过此类可以对HBase进行配置 用法实例: C ...

  2. Python学习笔记_03:简单操作MongoDB数据库

    目录 1. 插入文档 2. 查询文档 3. 更新文档 4. 删除文档   1. 插入文档 # -*- coding: UTF-8 -*- import datetime from pymongo im ...

  3. Java学习笔记-Java文件操作流

     day03 输入输出流:读入写出  节点流:   有明确的来源和去向   往往对字节操作 节点流又叫低级流.字节流   处理流:  没有明确的来源和去向  往往对低级流或其他高级流进行操作,不能独立 ...

  4. 学习笔记——Java字符串操作常用方法

    1.创建字符串 最常用的是使用String类的构造方法:String s=new String("abcd"); 也可采用J2SE5.0添加的StringBuilder类的字符串构 ...

  5. java学习笔记07--日期操作类

    java学习笔记07--日期操作类   一.Date类 在java.util包中定义了Date类,Date类本身使用非常简单,直接输出其实例化对象即可. public class T { public ...

  6. JAVA WEB学习笔记(三):简单的基于Tomcat的Web页面

    注意:每次对Tomcat配置文件进行修改后,必须重启Tomcat 在E盘的DATA文件夹中创建TomcatDemo文件夹,并将Tomcat安装路径下的webapps/ROOT中的WEB-INF文件夹复 ...

  7. kafka学习笔记(一)消息队列和kafka入门

    概述 学习和使用kafka不知不觉已经将近5年了,觉得应该总结整理一下之前的知识更好,所以决定写一系列kafka学习笔记,在总结的基础上希望自己的知识更上一层楼.写的不对的地方请大家不吝指正,感激万分 ...

  8. tensorflow学习笔记——使用TensorFlow操作MNIST数据(2)

    tensorflow学习笔记——使用TensorFlow操作MNIST数据(1) 一:神经网络知识点整理 1.1,多层:使用多层权重,例如多层全连接方式 以下定义了三个隐藏层的全连接方式的神经网络样例 ...

  9. 大数据 -- kafka学习笔记:知识点整理(部分转载)

    一 为什么需要消息系统 1.解耦 允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束. 2.冗余 消息队列把数据进行持久化直到它们已经被完全处理,通过这一方式规避了数据丢失风险.许多 ...

随机推荐

  1. PSI and index do not match: PSI and index do not match

    解决来自:http://blog.csdn.net/huberjobs/article/details/50829603

  2. 关于Hibernate 5 和 Hibernate 4 在创建SessionFactory的不同点分析(解决 org.hibernate.MappingException: Unknown entity: xx类报错问题)

    Hibernate4版本的SessionFactory实例构建的步骤是这样的(也是很多学习资料的通用范本): //Configuration就是代表着hibernate的那个xml配置文件对象,如果c ...

  3. SVN中trunk、branches、tag的使用

     我相信初学开发在SVN作为版本管理时,都估计没可能考虑到如何灵活的运用SVN来管理开发代码的版本,下面我就摘录一篇文章来简单说明SVN里的trunk,branched,tags这个三个文件目录的用法 ...

  4. shell 条件判断

    一.数值判断 INT1 -eq INT2           INT1和INT2两数相等为真 INT1 -ne INT2           INT1和INT2两数不等为真 INT1 -gt INT2 ...

  5. 月四 周2 ii

    今日通过色鸟鸟 以此纪念 不是很想玩红鸟鸟 简单来说因为红鸟鸟结束后,五彩斑斓系列就和我没关系了= = 珍惜为每一部作品感伤的每一刻吧

  6. merge 本地 master 分支代码提示 “Already up-to-date”

    在使用 git 的过程中由于误操作,导致从本地 master 分支 merge 代码到当前分支失败,虽然当前分支和 master 分支代码不同步,但是仍然提示 Already up-to-date. ...

  7. WordPress基础:固定链接的设置

    安装wordpressp后的工作之一最好修改固定链接,原因就是wp默认的/?p=123形式不利于搜索引擎优化而且也不美观. URL结构参数说明:%year%:日志发表的年份,如2009%monthnu ...

  8. Java:对象的强、软、弱、虚引用

    转自: http://zhangjunhd.blog.51cto.com/113473/53092 1.对象的强.软.弱和虚引用 在JDK 1.2以前的版本中,若一个对象不被任何变量引用,那么程序就无 ...

  9. CSS之viewport 1

    在这个迷你系列的文章里边我将会解释viewport,以及许多重要元素的宽度是如何工作的,比如<html>元素,也包括窗口和屏幕. 这篇文章是关于桌面浏览器的,其唯一的目的就是为移动浏览器中 ...

  10. C# EF增删改查

    1.增 //1.创建一个EF数据上下文对象 MyDBEntities context=new MyDBEntities(); //2.将要添加的数据,封装成对象 Users user = new Us ...