1、数据同步方式

全量同步与增量同步

全量同步是指全部将数据同步到es,通常是刚建立es,第一次同步时使用。增量同步是指将后续的更新、插入记录同步到es。

2、常用的一些ES同步方法

1)、 elasticsearch-jdbc : 严格意义上它已经不是第三方插件。已经成为独立的第三方工具。不支持5.5.1。。。
2)、elasticsearch-river-mysql插件:   https://github.com/scharron/elasticsearch-river-mysql
3)、go-mysql-elasticsearch(国内作者siddontang) :  https://github.com/siddontang/go-mysql-elasticsearch
4)、python-mysql-replication:  github地址  https://github.com/noplay/python-mysql-replication
5)、MySQL Binlog:  通过 MySQL binlog 将 MySQL 的数据同步给 ES, 只能使用 row 模式的 binlog。
6)、Logstash-input-jdbc:  github地址  https://github.com/logstash-plugins/logstash-input-jdbc

3、Logstash-input-jdbc安装

由于我用的ES版本是5.5.1,elasticsearch-jdbc不支持,只支持2.3.4,这就尴尬了。

所用这里用Logstash-input-jdbc来同步数据,logstash-input-jdbc插件是logstash 的一个个插件,使用ruby语言开发。所以要先安装ruby,也是为了好使用ruby中的gem安装插件,下载地址: https://rubyinstaller.org/downloads/

下载下来之后,进行安装

安装好之后试下是否安装成功,打开CMD输入:

OK,然后修改gem的源,使用以下命令查看gem源

  1. gem sources -l

删除默认的源

  1. gem sources --remove https://rubygems.org/

添加新的源

  1. gem sources -a http://gems.ruby-china.org/
  2. gem sources -l

更改成功,还的修改Gemfile的数据源地址。步骤如下:

  1. gem install bundler
  2. bundle config mirror.https://rubygems.org https://gems.ruby-china.org

然后就是安装logstash-input-jdbc,在logstash-5.5.1/bin目录下

执行安装命令

  1. .\logstash-plugin.bat install logstash-input-jdbc

静等一会儿,成功之后提示如下

4、Logstash-input-jdbc使用

官方文档地址

https://www.elastic.co/guide/en/logstash/current/plugins-inputs-jdbc.html

首先在bin目录下新建一个mysql目录,里面包含jdbc.conf,jdbc.sql文件,加入mysql的驱动

jdbc.conf配置如下

  1. input {
  2. stdin {
  3. }
  4. jdbc {
  5. # mysql 数据库链接,test为数据库名
  6. jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/test"
  7. # 用户名和密码
  8. jdbc_user => "root"
  9. jdbc_password => "root"
  10. # 驱动
  11. jdbc_driver_library => "G:\Developer\Elasticsearch5.5.1\ES5\logstash-5.5.1\bin\mysql\mysql-connector-java-5.1.9.jar"
  12. # 驱动类名
  13. jdbc_driver_class => "com.mysql.jdbc.Driver"
  14. jdbc_paging_enabled => "true"
  15. jdbc_page_size => "50000"
  16. # 执行的sql 文件路径+名称
  17. statement_filepath => "G:\Developer\Elasticsearch5.5.1\ES5\logstash-5.5.1\bin\mysql\jdbc.sql"
  18. # 设置监听间隔 各字段含义(由左至右)分、时、天、月、年,全部为*默认含义为每分钟都更新
  19. schedule => "* * * * *"
  20. # 索引类型
  21. type => "jdbc"
  22. }
  23. }
  24.  
  25. filter {
  26. json {
  27. source => "message"
  28. remove_field => ["message"]
  29. }
  30. }
  31.  
  32. output {
  33. elasticsearch {
  34. # ES的IP地址及端口
  35. hosts => ["localhost:9200"]
  36. # 索引名称
  37. index => "article"
  38. # 自增ID 需要关联的数据库中有有一个id字段,对应索引的id号
  39. document_id => "%{id}"
  40. }
  41. stdout {
  42. # JSON格式输出
  43. codec => json_lines
  44. }
  45. }

各数据库对应的链接如下:

Driver ="path/to/jdbc-drivers/mysql-connector-java-5.1.35-bin.jar"   //驱动程序

Class  ="com.mysql.jdbc.Driver";

URL  ="jdbc:mysql://localhost:3306/db_name";                           //连接的URL,db_name为数据库名

Driver ="path/to/jdbc-drivers/sqljdbc4.jar"

Class  ="com.microsoft.jdbc.sqlserver.SQLServerDriver";

URL   ="jdbc:microsoft:sqlserver://localhost:1433;DatabaseName=db_name";     //db_name为数据库名

Driver ="path/to/jdbc-drivers/ojdbc6-12.1.0.2.jar"

Class  ="oracle.jdbc.driver.OracleDriver";

URL   ="jdbc:oracle:thin:@loaclhost:1521:orcl";     //orcl为数据库的SID

//连接具有DB2客户端的Provider实例

Driver ="path/to/jdbc-drivers/jt400.jar"

Class  ="com.ibm.db2.jdbc.app.DB2.Driver";

URL   ="jdbc:db2://localhost:5000/db_name";     //db_name为数据可名

Driver ="path/to/jdbc-drivers/postgresql-9.4.1201.jdbc4.jar"

Class  ="org.postgresql.Driver";            //连接数据库的方法

URL   ="jdbc:postgresql://localhost/db_name";      //db_name为数据可名

jdbc.sql配置如下:

  1. select * from person

就一条查询语句对应的表数据如下:

注意:这里的jdbc.sql和jdbc.conf文件编码都必须是ANSI

先启动ES,然后通过sense创建article索引

  1. UT http://localhost:9200/article

然后通过以下命令启动logstash

  1. .\logstash.bat -f .\mysql\jdbc.conf

过一会他就会自动的往ES里添加数据,输出的日志如下:

执行了SQL查询。查看下article索引会发现多出来了很多文档

我们在数据库增加一条数据,看他是否自动同步到ES中

静等一会,发现logstash的日志

查询了一篇,ES中的数据会多出刚刚插入的那条

下面使用 增量 来新增数据,需要在jdbc.conf配置文件中做如下修改:

  1. input {
  2. stdin {
  3. }
  4. jdbc {
  5. # mysql 数据库链接,test为数据库名
  6. jdbc_connection_string => "jdbc:mysql://127.0.0.1:3306/test"
  7. # 用户名和密码
  8. jdbc_user => "root"
  9. jdbc_password => "root"
  10. # 驱动
  11. jdbc_driver_library => "G:\Developer\Elasticsearch5.5.1\ES5\logstash-5.5.1\bin\mysql\mysql-connector-java-5.1.9.jar"
  12. # 驱动类名
  13. jdbc_driver_class => "com.mysql.jdbc.Driver"
  14.  
  15. #处理中文乱码问题
  16. codec => plain { charset => "UTF-8"}
  17. #使用其它字段追踪,而不是用时间
  18. use_column_value => true
  19. #追踪的字段
  20. tracking_column => id
  21. record_last_run => true
  22. #上一个sql_last_value值的存放文件路径, 必须要在文件中指定字段的初始值
  23. last_run_metadata_path => "G:\Developer\Elasticsearch5.5.1\ES5\logstash-5.5.1\bin\mysql\station_parameter.txt"
  24. #开启分页查询
  25. jdbc_paging_enabled => true
  26. jdbc_page_size => 300
  27.  
  28. # 执行的sql 文件路径+名称
  29. statement_filepath => "G:\Developer\Elasticsearch5.5.1\ES5\logstash-5.5.1\bin\mysql\jdbc.sql"
  30. # 设置监听间隔 各字段含义(由左至右)分、时、天、月、年,全部为*默认含义为每分钟都更新
  31. schedule => "* * * * *"
  32. # 索引类型
  33. type => "jdbc"
  34.  
  35. }
  36. }
  37.  
  38. filter {
  39. json {
  40. source => "message"
  41. remove_field => ["message"]
  42. }
  43. }
  44.  
  45. output {
  46. elasticsearch {
  47. # ES的IP地址及端口
  48. hosts => ["localhost:9200"]
  49. # 索引名称
  50. index => "article"
  51. # 自增ID
  52. document_id => "%{id}"
  53. }
  54. stdout {
  55. # JSON格式输出
  56. codec => json_lines
  57. }
  58. }

参数介绍:

  1. //是否记录上次执行结果, 如果为真,将会把上次执行到的 tracking_column 字段的值记录下来,保存到 last_run_metadata_path 指定的文件中
  2. record_last_run => true
  3.  
  4. //是否需要记录某个column 的值,如果 record_last_run 为真,可以自定义我们需要 track 的 column 名称,此时该参数就要为 true. 否则默认 track 的是 timestamp 的值.
  5. use_column_value => true
  6.  
  7. //如果 use_column_value 为真,需配置此参数. track 的数据库 column 名,该 column 必须是递增的.比如:ID.
  8. tracking_column => MY_ID
  9.  
  10. //指定文件,来记录上次执行到的 tracking_column 字段的值
  11. //比如上次数据库有 10000 条记录,查询完后该文件中就会有数字 10000 这样的记录,下次执行 SQL 查询可以从 10001 条处开始.
  12. //我们只需要在 SQL 语句中 WHERE MY_ID > :last_sql_value 即可. 其中 :last_sql_value 取得就是该文件中的值(10000).
  13. last_run_metadata_path => "G:\Developer\Elasticsearch5.5.1\ES5\logstash-5.5.1\bin\mysql\station_parameter.txt"
  14.  
  15. //是否清除 last_run_metadata_path 的记录,如果为真那么每次都相当于从头开始查询所有的数据库记录
  16. clean_run => false
  17.  
  18. //是否将 column 名称转小写
  19. lowercase_column_names => false
  20.  
  21. //存放需要执行的 SQL 语句的文件位置
  22. statement_filepath => "G:\Developer\Elasticsearch5.5.1\ES5\logstash-5.5.1\bin\mysql\jdbc.sql"

这里使用webmagic爬虫来爬取数据,导入到数据库中,先运行爬虫,爬取一些数据

这里爬取到了277条,然后启动logstash,通过logstash导入到ES中去

打开mysql目录下的station_parameter.txt文件

这个文件里记录上次执行到的 tracking_column 字段的值,比如上次数据库有 10000 条记录,查询完后该文件中就会有数字 10000 这样的记录,下次执行 SQL 查询可以从 10001 条处开始,我们只需要在 SQL 语句中 WHERE MY_ID > :last_sql_value 即可. 其中 :last_sql_value 取得就是该文件中的值。

然后开启爬虫,爬取数据,往数据库里插,logstash会自动的识别到更新,然后导入到ES中!!

Elasticsearch(9):使用Logstash-input-jdbc同步数据库中的数的更多相关文章

  1. Logstash使用jdbc同步MySQL中的数据

    [--26T20::,][WARN ][logstash.inputs.jdbc ] Exception when executing JDBC query {:exception=>#< ...

  2. 通过jdbc获取数据库中的表结构

    通过jdbc获取数据库中的表结构 主键 各个表字段类型及应用生成实体类   1.JDBC中通过MetaData来获取具体的表的相关信息.可以查询数据库中的有哪些表,表有哪些字段,字段的属性等等.Met ...

  3. 使用JDBC向数据库中插入一条数据

    原谅我是初学者,这个方法写的很烂,以后不会改进,谢谢 /** * 通过JDBC向数据库中插入一条数据 1.Statement 用于执行SQL语句的对象 1.1 通过Connection 的 * cre ...

  4. 使用JDBC从数据库中查询数据的方法

    * ResultSet 结果集:封装了使用JDBC 进行查询的结果 * 1. 调用Statement 对象的 executeQuery(sql) 方法可以得到结果集 * 2. ResultSet 返回 ...

  5. MySQL_(Java)使用JDBC向数据库中修改(update)数据

    MySQL_(Java)使用JDBC向数据库发起查询请求 传送门 MySQL_(Java)使用JDBC向数据库中插入(insert)数据 传送门 MySQL_(Java)使用JDBC向数据库中删除(d ...

  6. MySQL_(Java)使用JDBC向数据库中删除(delete)数据

    MySQL_(Java)使用JDBC向数据库发起查询请求 传送门 MySQL_(Java)使用JDBC向数据库中插入(insert)数据 传送门 MySQL_(Java)使用JDBC向数据库中删除(d ...

  7. MySQL_(Java)使用JDBC向数据库中插入(insert)数据

    MySQL_(Java)使用JDBC向数据库发起查询请求 传送门 MySQL_(Java)使用JDBC向数据库中插入(insert)数据 传送门 MySQL_(Java)使用JDBC向数据库中删除(d ...

  8. logstash input jdbc连接数据库

    示例 以下配置能够实现从 SQL Server 数据库中查询数据,并增量式的把数据库记录导入到 ES 中. 1. 查询的 SQL 语句在 statement_filepath => " ...

  9. JDBC:从数据库中取数据的一个bug

    先看错误信息: java.sql.SQLException: Before start of result set at com.mysql.jdbc.SQLError.createSQLExcept ...

随机推荐

  1. 27.Remove Element(Array)

    Given an array and a value, remove all instances of that value in place and return the new length. T ...

  2. 基础常用JS函数和语法

    100多个基础常用JS函数和语法集合大全  来源:http://www.cnblogs.com/hnyei/p/4605103.html 网站特效离不开脚本,javascript是最常用的脚本语言,我 ...

  3. android应用程序monkey压力测试(模拟器或真机)

    首先需要安装一个模拟器: 前置条件: 1.jdk环境配置 2.eclipse下载安装(直接解压即可) 3.网站上下载ADT: 由于国内禁止google的浏览,所以需要自己上网找资源,下面这个网站有比较 ...

  4. golang之数组

    1.数组:同一种数据类型的固定长度的序列. 2.数组定义:var a [len]int,例如:var a [5]int 3.长度是数组类型的一部分,因此,var a[5] int 和 var a[10 ...

  5. linq join一些忘记的操作

  6. mongodb的安装与启动(centos7)

    公司迁移mongodb,查了半天资料,各种考证,各种资讯,最后我选择很野蛮的直接把库和日志直接scp过来了....... 记录下如何安装和启动mongodb: 1.解压mongodb: [root@i ...

  7. 统计学中z分布、t分布、F分布及χ^2分布

    Z就是正态分布,X^2分布是一个正态分布的平方,t分布是一个正态分布除以(一个X^2分布除以它的自由度然后开根号),F分布是两个卡方分布分布除以他们各自的自由度再相除 比如X是一个Z分布,Y(n)=X ...

  8. Workflow笔记2——状态机工作流(转)

    出处:http://www.cnblogs.com/jiekzou/p/6192813.html 在上一节Workflow笔记1——工作流介绍中,介绍的是流程图工作流,后来微软又推出了状态机工作流,它 ...

  9. Scala程序编译运行

    1.编译 Scala演示代码如下: <pre name="code" class="plain">/** * @author Administrat ...

  10. FMX.Platform.TApplicationEvent

    FMX.Platform.TApplicationEvent http://docwiki.embarcadero.com/Libraries/Seattle/en/FMX.Platform.TApp ...