〇、概述

1、常见资料

(1)confluent

https://docs.confluent.io/5.4.0/connect/kafka-connect-jdbc/sink-connector/sink_config_options.html

一、可用的sink/source配置

(一)source connector

1、根据自增id的source

(1)订单表
{
    "name": "source_connect_Oracle_Test_T_Order_0905",
    "config": {
        "connector.class": "com.ecer.kafka.connect.oracle.OracleSourceConnector",
        "reset.offset": "true",
        "incrementing.column.name": "AUUID_0",
        "db.hostname": "192.168.0.100",
        "tasks.max": "1",
        "db.user.password": "system",
        "table.blacklist": "",
        "table.whitelist": "TEST.T_Order",
        "mode": "incrementing",
        "db.user": "system",
        "db.port": "1521",
        "db.fetch.size": "1",
        "multitenant": "false",
        "name": "source_connect_Oracle_Test_T_Order_0905",
        "topic": "connect_topic_Test_T_Order_0905",
        "parse.dml.data": "true",
        "db.name": "helowin",
        "db.name.alias": "helowin"
    },
    "tasks": [
        {
            "connector": "source_connect_Oracle_Test_T_Order_0905",
            "task": 0
        }
    ],
    "type": "source"
}

(2)用户表

1、Oracle的source
{
    "name": "ORACLE_TEST_ID_TIMESTAMP_INC",
    "config": {
        "connector.class": "com.ecer.kafka.connect.oracle.OracleSourceConnector",
        "reset.offset": "true",
        "incrementing.column.name": "ID",
        "db.hostname": "192.168.0.100",
        "tasks.max": "1",
        "db.user.password": "system",
        "table.blacklist": "",
        "table.whitelist": "TEST.T_USER",
        "mode": "incrementing",
        "db.user": "system",
        "db.port": "1521",
        "db.fetch.size": "1",
        "multitenant": "false",
        "name": "ORACLE_TEST_ID_TIMESTAMP_INC",
        "topic": "ORACLE_TEST_TOPIC",
        "parse.dml.data": "true",
        "db.name": "helowin",
        "db.name.alias": "helowin"
    },
    "tasks": [
        {
            "connector": "ORACLE_TEST_ID_TIMESTAMP_INC",
            "task": 0
        }
    ],
    "type": "source"
}
2、根据time自增的source
{
    "name": "source_connect_Oracle_Test_T_Order_timestamp_0905",
    "config": {
        "connector.class": "com.ecer.kafka.connect.oracle.OracleSourceConnector",
        "reset.offset": "true",
        "timestamp.column.name": "UPDDATTIM_0",
        "db.hostname": "192.168.0.100",
        "tasks.max": "1",
        "db.user.password": "system",
        "table.blacklist": "",
        "table.whitelist": "TEST.T_Order",
        "mode": "timestamp incrementing",
        "db.user": "system",
        "db.port": "1521",
        "db.fetch.size": "1",
        "multitenant": "false",
        "name": "source_connect_Oracle_Test_T_Order_timestamp_0905",
        "topic": "topic_Test_T_Order_timestamp_0905",
        "parse.dml.data": "true",
        "db.name": "helowin",
        "db.name.alias": "helowin"
    },
    "tasks": [
        {
            "connector": "source_connect_Oracle_Test_T_Order_timestamp_0905",
            "task": 0
        }
    ],
    "type": "source"
}

3、基于confluent的JDBC source

{
    "name": "JDBC_ORACLE_SOURCE1",
    "config": {
        "connector.class": "io.confluent.connect.jdbc.JdbcSourceConnector",
        "mode": "incrementing",
        "incrementing.column.name": "ID",
        "topic.prefix": "JDBC_ORACLE_SOURCE_",
        "connection.password": "system",
        "connection.user": "system",
        "name": "JDBC_ORACLE_SOURCE1",
        "connection.url": "jdbc:oracle:thin:@//192.168.0.100:1521/helowin",
        "table.whitelist": "TEST.T_USER"
    },
    "tasks": [
        {
            "connector": "JDBC_ORACLE_SOURCE1",
            "task": 0
        }
    ],
    "type": "source"
}
(二)sink
{
    "name": "POSTGRESQL_SINK_TEST",
    "config": {
        "connector.class": "io.confluent.connect.jdbc.JdbcSinkConnector",
        "table.name.format": "wxf_test.T_USER",
        "connection.password": "qaz123",
        "tasks.max": "1",
        "topics": "JDBC_ORACLE_SOURCE_T_USER",
        "delete.enabled": "false",
        "auto.evolve": "true",
        "connection.user": "postgres",
        "name": "POSTGRESQL_SINK_TEST",
        "auto.create": "true",
        "connection.url": "jdbc:postgresql://170.0.0.1:5432/bigdata",
        "insert.mode": "upsert",
        "pk.mode": "record_value"
    },
    "tasks": [
        {
            "connector": "POSTGRESQL_SINK_TEST",
            "task": 0
        }
    ],
    "type": "sink"
}
 

【大数据】kafka-02:Kafka Connect内容、原理及使用的更多相关文章

  1. 大数据技术之Kafka

    Kafka概述 1.1 消息队列     (1)点对点模式(一对一,消费者主动拉取数据,消息收到后消息清除) 点对点模型通常是一个基于拉取或者轮询的消息传送模型,这种模型从队列中请求信息,而不是将消息 ...

  2. 大数据平台搭建-kafka集群的搭建

    本系列文章主要阐述大数据计算平台相关框架的搭建,包括如下内容: 基础环境安装 zookeeper集群的搭建 kafka集群的搭建 hadoop/hbase集群的搭建 spark集群的搭建 flink集 ...

  3. 入门大数据---Flume整合Kafka

    一.背景 先说一下,为什么要使用 Flume + Kafka? 以实时流处理项目为例,由于采集的数据量可能存在峰值和峰谷,假设是一个电商项目,那么峰值通常出现在秒杀时,这时如果直接将 Flume 聚合 ...

  4. 【原创】大数据基础之Kafka(1)简介、安装及使用

    kafka2.0 http://kafka.apache.org 一 简介 Kafka® is used for building real-time data pipelines and strea ...

  5. 大数据基础之Kafka(1)简介、安装及使用

    kafka2.0 http://kafka.apache.org 一 简介 Kafka® is used for building real-time data pipelines and strea ...

  6. 大数据 --> 分布式文件系统HDFS的工作原理

    分布式文件系统HDFS的工作原理 Hadoop分布式文件系统(HDFS)是一种被设计成适合运行在通用硬件上的分布式文件系统.HDFS是一个高度容错性的系统,适合部署在廉价的机器上.它能提供高吞吐量的数 ...

  7. 大数据开发实战:MapReduce内部原理实践

    下面结合具体的例子详述MapReduce的工作原理和过程. 以统计一个大文件中各个单词的出现次数为例来讲述,假设本文用到输入文件有以下两个: 文件1: big data offline data on ...

  8. 大数据 -- zookeeper和kafka集群环境搭建

    一 运行环境 从阿里云申请三台云服务器,这里我使用了两个不同的阿里云账号去申请云服务器.我们配置三台主机名分别为zy1,zy2,zy3. 我们通过阿里云可以获取主机的公网ip地址,如下: 通过secu ...

  9. 《OD大数据实战》Kafka入门实例

    官网: 参考文档: Kafka入门经典教程 Kafka工作原理详解 一.安装zookeeper 1. 下载zookeeper-3.4.5-cdh5.3.6.tar.gz 下载地址为: http://a ...

  10. 大数据安装之Kafka(用于实时处理的消息队列)

    一.安装部署kafka 1.集群规划 hadoop102                                 hadoop103                          hado ...

随机推荐

  1. CI/CD集成

    文章转载自:https://kuboard.cn/guide/cicd/ 下图展示了当前比较典型的持续构建集成的一种做法. 在是否自动将最新版本部署到 Kubernetes 环境这个问题上,可能会有多 ...

  2. Filebeat 调试

    默认情况下,Filebeat将其所有输出发送到syslog. 在前台运行Filebeat时,可以使用-e命令行标志将输出重定向到标准错误. 例如: filebeat -e 默认配置文件是filebea ...

  3. Elasticsearch的ETL利器——Ingest节点

    文章转载自: https://mp.weixin.qq.com/s?__biz=MzI2NDY1MTA3OQ==&mid=2247484473&idx=1&sn=1b3b07b ...

  4. 《Hyperspectral Image Classification With Deep Feature Fusion Network》论文笔记

    论文题目<Hyperspectral Image Classification With Deep Feature Fusion Network> 论文作者:Weiwei Song, Sh ...

  5. NSIS 自定义安装界面准确获取安装进度完美解决方案

    友情提醒:随着7zip版本快速更新,nsis7z插件已经不能全面兼容新版,使用本例子请将7zip版本降至9.2x以下并下载最新版nsis7z.dll! ------------------------ ...

  6. Django 之ModelAdmin对象

    一.后台管理系统配置 1 在该表对应的models类里面添加一个Meta类 class Meta: verbose_name_plural = '用户表' #指定该表在admin后台的名字为:用户表  ...

  7. mac通过docker一键部署Nexus3

    目录 mac通过docker一键部署Nexus3 一.前言 二.系统配置 三.安装步骤 1.Dockerhub查看镜像地址 2.一键安装 2.1.克隆脚本 2.2.安装程序 2.2.1.程序安装详情 ...

  8. AspNetCore中 使用 Grpc 简单Demo

    为什么要用Grpc 跨语言进行,调用服务,获取跨服务器调用等 目前我的需要使用 我的抓取端是go 写的 查询端用 Net6 写的 导致很多时候 我需要把一些临时数据写入到 Redis 在两个服务器进行 ...

  9. Dytechlab Cup 2022 (A - C)

    Dytechlab Cup 2022 (A - C) A - Ela Sorting Books 分析:贪心,将字符串每一位都存在map里,从前往后尽量让每一个\(n / k\)的段\(mex\)值尽 ...

  10. 通过netty把百度地图API获取的地理位置从Android端发送到Java服务器端

    本篇记录我在实现时的思考过程,写给之后可能遇到困难的我自己也给到需要帮助的人. 写的比较浅显,见谅. 在写项目代码的时候,需要把Android端的位置信息传输到服务器端,通过Netty达到连续传输的效 ...