kafka-rest:怎么愉快的build?
愉快的build该项目吧
git clone https://github.com/confluentinc/kafka-rest
mvn clean install -Dmaven.test.skip=true
出先如下类似错误:
[ERROR] Failed to execute goal on project kafka-rest: Could not resolve dependencies for project io.confluent:kafka-rest:jar:3.1.-SNAPSHOT: The following artifacts could not be resolved: io.confluent:rest-utils:jar:3.1.-SNAPSHOT, org.apache.kafka:kafka_2.:jar:0.10.1.0-SNAPSHOT, io.confluent:kafka-avro-serializer:jar:3.1.-SNAPSHOT, io.confluent:kafka-json-serializer:jar:3.1.-SNAPSHOT, io.confluent:rest-utils-test:jar:3.1.-SNAPSHOT, org.apache.kafka:kafka_2.:jar:test:0.10.1.0-SNAPSHOT, org.apache.kafka:kafka-clients:jar:test:0.10.1.0-SNAPSHOT, io.confluent:kafka-schema-registry:jar:3.1.-SNAPSHOT: Could not find artifact io.confluent:rest-utils:jar:3.1.-SNAPSHOT in confluent (http://packages.confluent.io/maven/) -> [Help 1]
翻了一下该项目wiki:
https://github.com/confluentinc/kafka-rest/wiki/FAQ 描述如下:
When I try to compile I get an error about a missing SNAPSHOT dependency.
The error looks something like this:
[ERROR] Failed to execute goal on project kafka-rest: Could not resolve dependencies for project io.confluent:kafka-rest:jar:3.1.0-SNAPSHOT: The following artifacts could not be resolved: io.confluent:rest-utils:jar:3.1.0-SNAPSHOT, org.apache.kafka:kafka_2.11:jar:0.10.1.0-SNAPSHOT, io.confluent:kafka-avro-serializer:jar:3.1.0-SNAPSHOT, io.confluent:kafka-json-serializer:jar:3.1.0-SNAPSHOT, io.confluent:rest-utils-test:jar:3.1.0-SNAPSHOT, org.apache.kafka:kafka_2.11:jar:test:0.10.1.0-SNAPSHOT, org.apache.kafka:kafka-clients:jar:test:0.10.1.0-SNAPSHOT, io.confluent:kafka-schema-registry:jar:3.1.0-SNAPSHOT: Could not find artifact io.confluent:rest-utils:jar:3.1.0-SNAPSHOT in confluent (http://packages.confluent.io/maven/) -> [Help 1]
During development of new versions of the REST Proxy we sometimes use a SNAPSHOT versions of dependencies in order to build and test against new features. If you want to build a development version, you may need to build and install these dependencies to your local Maven repository in order to build the connector:
- Kafka - clone https://github.com/apache/kafka/ and build with
./gradlew installAll
- rest-utils - clone https://github.com/confluentinc/rest-utils and build with
mvn clean install
- schema-registry - clone https://github.com/confluentinc/schema-registry and build with
mvn clean install
按照上述说法,一通搞,还是不行
翻了一下该项目Issues 描述如下:
https://github.com/confluentinc/common/issues/98
@ewencp thanks for the summary, that finally also worked for me. I used the following steps (a bit in more detail) to build it.
Actually our company network (proxy and maven repo) was a problem since could either resolve dependencies or run the integration tests. Therefore, I had to skip the tests. git clone --branch 1.1. https://github.com/apache/kafka.git
gradle wrapper
./gradlew installAll git clone https://github.com/confluentinc/common.git
git checkout origin/4.1.x
mvn clean install -Dmaven.test.skip=true git clone https://github.com/confluentinc/rest-utils.git
git checkout origin/4.1.x
mvn clean install -Dmaven.test.skip=true git clone https://github.com/confluentinc/schema-registry.git
git checkout origin/4.1.x
mvn clean install -Dmaven.test.skip=true git clone https://github.com/confluentinc/kafka-rest.git
git checkout origin/4.1.x
mvn clean install -Dmaven.test.skip=true
按照上述顺序,终于愉快的build了。。。
当然,如果没打算基于源码最改动,可以按照该项目Readme建议的,直接使用prebuilt版本
Installation
You can download prebuilt versions of the Kafka REST Proxy as part of the Confluent Platform.
You can read our full installation instructions and the complete documentation
To install from source, follow the instructions in the Development section below.
kafka-rest:怎么愉快的build?的更多相关文章
- kafka-rest:A Comprehensive, Open Source REST Proxy for Kafka
Ewen Cheslack-Postava March 25, 2015 时间有点久,但讲的还是很清楚的 As part of Confluent Platform 1.0 released ab ...
- Java连接kafka
1.maven依赖: <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xsi="http://ww ...
- 056 Java搭建kafka环境
1.使用Java项目搭建 2.新目录 3.添加项目支持 4.添加mavem与scala 5.修改pom <?xml version="1.0" encoding=" ...
- 搭建kafka源码开发环境时使用"gradle idea"命令构建源码失败
我的环境: JDK: 1.8.0_131 Gradle: Gradle 3.1 Kafka源码包: kafka-0.10.0.1-src.tgz Zookeeper安装包: zookeeper-3.4 ...
- Openshift部署Zookeeper和Kafka
部署Zookeeper github网址 https://github.com/ericnie2015/zookeeper-k8s-openshift 1.在openshift目录中,首先构建imag ...
- kfka学习笔记一:使用Python操作Kafka
1.准备工作 使用python操作kafka目前比较常用的库是kafka-python库,但是在安装这个库的时候需要依赖setuptools库和six库,下面就要分别来下载这几个库 https://p ...
- 使用sbt构建spark 程序
今日在学习scala和spark相关的知识.之前在eclipse下编写了wordcount程序.但是关于导出jar包这块还是很困惑.于是学习sbt构建scala. 关于sbt的介绍网上有很多的资料,这 ...
- Flink - FlinkKafkaConsumer08
先看 AbstractFetcher 这个可以理解就是,consumer中具体去kafka读数据的线程,一个fetcher可以同时读多个partitions的数据来看看 /** * Base cl ...
- 大数据系列之kafka-java实现
Java源码GitBub地址: https://github.com/fzmeng/kafka-demo 关于kafka安装步骤可见文章 http://www.cnblogs.com/cnmeng ...
随机推荐
- Android--从系统Gallery获取图片
前言 在Android应用中,经常有场景会需要使用到设备上存储的图片,而直接从路径中获取无疑是非常不便利的.所以一般推荐调用系统的Gallery应用,选择图片,然后使用它.本篇博客将讲解如何在Andr ...
- 信息摘要算法之三:SHA256算法分析与实现
前面一篇中我们分析了SHA的原理,并且以SHA1为例实现了相关的算法,在这一片中我们将进一步分析SHA2并实现之. 1.SHA简述 前面的篇章中我们已经说明过,SHA实际包括有一系列算法,分别是SHA ...
- 如何在SpringBoot中集成JWT(JSON Web Token)鉴权
这篇博客主要是简单介绍了一下什么是JWT,以及如何在Spring Boot项目中使用JWT(JSON Web Token). 1.关于JWT 1.1 什么是JWT 老生常谈的开头,我们要用这样一种工具 ...
- Asp.Net SignalR 集群会遇到的问题
SignalR集群 当客户端数量上来,一台server自然是吃不消的.多个server集群部署是必然的解决方案.再通过负载均衡,嗯 简直是完美.但是问题也接踵而来.每个server只能管理到当前ser ...
- IDEA搭建Spring Boot项目
所需工具 新建项目 创建一个login控制器 写入两个注释 import导入项会自动添加@RestController@RequestMapping(value = "/login" ...
- .netcore2.0+pgsql 脚手架
mystaging介绍 这是一个 .netcore+pgsql 的脚手架,可以一键生成实体对象和业务层接口,让开发人员无需关注底层变动,专注编写业务代码,它可以让你使用 .netcore2.0的新特性 ...
- ASP.NET MVC ETag & Cache等优化方法
背景 最近有一个项目是用SmartAdmin + Jquery + EasyUI 一个ASP.NET MVC5的项目,一直存在一个性能问题,加载速度比较慢,第一次加载需要(在没有cache的情况下)需 ...
- MySQL 笔记整理(7) --行锁功能:怎么减少行锁对性能的影响?
笔记记录自林晓斌(丁奇)老师的<MySQL实战45讲> 7) --行锁功能:怎么减少行锁对性能的影响? MySQL的行锁是在引擎层由各个引擎自己实现的.因此,并不是所有的引擎都支持行锁,如 ...
- js报错:Uncaught SyntaxError: Unexpected string
一.问题 今天在写jsp页面时,发现加上某段代码后,页面的其它js就失效了,死活出不来,然后打开谷歌浏览器发现,页面js报如下错误: Uncaught SyntaxError: Unexpected ...
- Linux设置Swap虚拟内存方法
linux可以文件或者分区来当作虚拟内存. 首先查看当前的内存和swap 空间大小(默认单位为k, -m 单位为M): free -m 查看swap信息,包括文件和分区的详细信息 swapon -s或 ...