用海豚调度器定时调度从Kafka到HDFS的kettle任务脚本
在实际项目中,从Kafka到HDFS的数据是每天自动生成一个文件,按日期区分。而且Kafka在不断生产数据,因此看看kettle是不是需要时刻运行?能不能按照每日自动生成数据文件?
为了测试实际项目中的海豚定时调度从Kafka到HDFS的Kettle任务情况,特地提前跑一下海豚定时调度这个任务,看看到底什么情况,也给大家提供一个参考!
海豚调度任务配置
(一)SHELL脚本配置
!/bin/bash
source /etc/profile
/opt/install/kettle9.2/data-integration/pan.sh -rep=hurys_linux_kettle_repository -user=admin -pass=admin -dir=/kafka_to_hdfs/ -trans=04_Kafka_to_HDFS_turnratio level=Basic >>/home/log/kettle/04_Kafka_to_HDFS_turnratio_`date +%Y%m%d`.log
(二)定时任务设置
定时任务设置为每天的零点,零点一到开始执行任务
(三)最后工作流情况
启动工作流
工作流启动,成功!工作流一直在跑
相应的任务实例也在跑!
启动工作流每天HDFS情况
(一)第一天为2023/8/30日
由于第一天开始执行任务,因此自动生成2023/08/30的HDFS文件
(二)第二天为2023/8/31日
2023/08/31早上更新
(1)04_Kafka_to_HDFS_turnratio任务
第二天的海豚任务自动调度,自动生成2023/08/31的HDFS文件
但问题是,除了再跑31日的任务外,30日的任务还在跑,可能是定时配置有问题,需要优化
而且这样搞容易把kettle搞出问题!
2023/08/31晚上更新
(1)04_Kafka_to_HDFS_turnratio任务
不设置定时任务,kettle任务一直运行,已经生成8月31日的文件,观察明天会不会自动生成9月1日的数据文件
已生成的8月31日文件
(2)01_Kafka_to_HDFS_queue任务
不设置定时任务,kettle任务一直运行,已经生成8月31日的文件,观察明天会不会自动生成9月1日的数据文件
已生成的8月31日文件
如果明早不能自动生成9月1日的文件,那就要设置海豚定时为每天的执行时间为0时0分0秒到23时59分59秒 或者在脚本里设置时间 或者在kettle里设置时间?我们试试看!
(三)第三天为2023/9/1日
2023/09/01早上更新
昨晚海豚调度的两个kettle任务以失败告终,没有自动生成9月1日的数据文件
今日再尝试其他的方式
2023/09/01下午更新
下午尝试用Crontab定时任务调度Kettle脚本
\[root@hurys22 kettle\_job\_sh\]# crontab -l
SHELL=/bin/bash
\# */1 * * * * /bin/sh /opt/install/kettle9.2/kettle\_job\_sh/test2.sh
06-07 17 * * * /bin/sh /opt/install/kettle9.2/kettle\_job\_sh/01\_Kafka\_to\_HDFS\_queue.sh
设置每天的17点的6分到7分中执行
但是日志文件显示kettle任务却一直再跑
当然,HDFS中确实生成了9月1日今日的文件,而且任务运行时间是我设置的17点7分
这个方法不行,后面再试试其他方法?怎么就不会设置任务停止呢
(四)第四天为2023/9/4日
2023/09/04早上更新
由于Kafka里有时间戳字段,因此在kettle任务里获取当前系统时间戳的日期字段、然后文件名直接从这个日期字段获取
(1)当前系统时间戳的日期字段
(2)HDFS输出中文件名直接获取这个日期字段,这样kettle任务运行时,是不是能自动生成每天的数据文件?
(3)测试结果,任务可以跑通,但是HDFS生成的文件不知却在哪?
终于查到了,原来这样导出的文件不在HDFS,而在kettle的安装文件里,即在本地
而且这么直接以日期命名也有问题,因为有多个Kafka,不可能仅仅以日期命名区分
2、2023/09/04晚上更新
因为上午的思路有问题,导出的文件没有在HDFS中,反而在本地,于是下午又换了种思路。
还是从系统获得时间day,但是文件路径直接写成HDFS的文件路径+day,这样的url字段才是HDFS输出控件中的文件名字段
(1)用海豚调度对比,定时调度01_Kafka_to_HDFS_queue任务
目前已生成生成9月4日的文件
(2)用海豚调度对比,不加定时调度04_Kafka_to_HDFS_turnratio任务
目前已生成生成9月4日的文件
(五)第五天为2023/9/5日
2023/09/05早上更新
虽然自动生成了9月5日的文件,但是由于数据量过大、加上把hadoop.tmp.dir放在了/opt/soft/hadoop313/hadooptmp,导致opt文件夹磁盘溢出,使得namenode处于安全模式。
花了一上午时间终于解决NameNode的安全模式问题,发现应该把HADOOP 运行时存储路径放在home目录下,因为home的磁盘空间最大
2023/09/05晚上更新
惊喜!!!
可能已经找到了解决方法,直接对Kafka里的时间戳字段进行截取,然后拼接文件路径,从而形成一个可以根据时间戳字段的日期变动的HDFS文件,即每天自动生成一个数据文件
(1)通过Java自定义文件名 字段url(HDFS路径+截取的可变的时间戳字段)
var url="hdfs://root:***@hurys22:8020/rtp/queue\_dynamic/queue\_dynamic"+substr(create_time,0,10)
(2)在HDFS输出控件的文件就选择url字段
(3)结果
已经生成了9月5日的数据文件,不需要海豚定时调度,只需要海豚一直跑kettle任务即可!
虽然还是生成了9月5日的数据文件,不过我今天下午按照生成每小时维度的数据文件测试过
下午16时运行任务,生成了16时的数据文件,然后到17时,又生成了17时的数据文件,这两个数据文件都在跑,而且HDFS里大小显示都为0。
不过区别是,16时的数据是完整的,17时的数据文件是不断增加的。因为Kafka是实时的,17时只会发送17时的数据,不会发送16时数据。下面是16时的文件数据
16时的数据文件是有固定的数据,17点后就没有再写入数据。之所以看不到这个这个block的大小,是因为写入数据的规模太小了,等到这个写入的数据规模达到128MB,即一个块大小后才会看到这个block的数据。
所以只要一直运行这个kettle任务、不断写入数据即可,只要写入的数据规模达到128MB,第一个block就会被看到。
已用海豚调度一个kettle任务,没有定时,就一直跑。目前HDFS已生成了9月5日的数据文件,明天就可以观察几点
1、有没有自动生成明天9月6日的数据文件
2、今天9月5日的数据文件里面的数据是不是固定的、完整的,晚上12点之后不再写入
3、等到写入数据规模达到128MB看第一个block的数据大小可不可看到?
明天9月6日除了看这几点外,还用flume去做Kafka到HDFS的采集工作,以防万一,这两天被这个问题搞得头疼,kettle真是一个易入门难精通的工具!
(六)第六天为2023/9/6日
2023/09/06早上更新
由于昨晚Kafka突然有问题,导致kettle没能导入数据到HDFS的文件,今早已重新启动Kafka服务
(1)目前已重新启动海豚调度的kettle服务
(2)目前已自动生成9月6日的数据文件
(3)只能明天9月7日看一下昨晚的3个问题
1、有没有自动生成明天9月7日的数据文件
2、今天9月6日的数据文件里面的数据是不是固定的、完整的,晚上12点之后不再写入
3、等到写入数据规模达到128MB看第一个block的数据大小可不可看到?
2023/09/06下午更新
(1)为了以防万一,加了个对比测试。看看如果一天的数据放不满一个block或者部分多余数据放不满一个block,可不可以正常显示?即使它总的写入数据量大于128MB
不仅多加了几台模拟设备推送数据,还对动态排队数据和静态排队数据两个kettle任务进行对比
(2)动态排队数据有自动日期分区,可以自动分成不同日期的文件,就是昨晚跑的kettle任务
(3)而静态排队数据没有日期分区,就往第一个日期文件里写入数据
目前静态排队数据也已经生成了9月6日的数据文件,后面会一直写入这个文件
明早对比这两个kettle任务的数据文件看看情况
(七)第七天为2023/9/7日
2023/09/07早上更新
A、HDFS文件有日期分区的动态排队数据kettle任务状况
(1)首先是自动生成9月7日的文件
(2)然后是6日的数据文件固定,没有7日的数据
(3)6日的数据这一块由于只有62.8MB,因此HDFS的块没有显示大小
B、HDFS文件没有日期分区的静态排队数据kettle任务状况
由于写入的HDFS文件没有日期分区,而且数据量写入超过了128MB,所以这一块的数据虽然在不断写入,但是这一块的文件显示大小为128MB
疑问:现在任务依然运行,我想看看这个块已经有128MB后,会不会在其他block写入数据?
2023/09/07晚上更新
A、HDFS文件有日期分区的动态排队数据kettle任务状况
(1)今日9月7日写入的数据量超过128MB,因此HDFS已显示文件大小
总结一下:用kettle采集Kafka数据写入HDFS这条路是可行的,只要设置变动的文件名、生成每日的数据文件,然后一直跑任务就好!!!
本文由 白鲸开源 提供发布支持!
用海豚调度器定时调度从Kafka到HDFS的kettle任务脚本的更多相关文章
- Linux调度器 - deadline调度器
一.概述 实时系统是这样的一种计算系统:当事件发生后,它必须在确定的时间范围内做出响应.在实时系统中,产生正确的结果不仅依赖于系统正确的逻辑动作,而且依赖于逻辑动作的时序.换句话说,当系统收到某个请求 ...
- 重新梳理调度器——GMP 调度模型
调度器--GMP 调度模型 Goroutine 调度器,它是负责在工作线程上分发准备运行的 goroutines. 首先在讲 GMP 调度模型之前,我们先了解为什么会有这个模型,之前的调度模型是什么样 ...
- mysql事件调度器定时删除binlog
MySQL5.1.6起Mysql增加了事件调度器(Event Scheduler),可以用做定时执行某些特定任务,来取代原先只能由Linux操作系统的计划任务来执行的工作MySQL的事件调度器可以精确 ...
- scrapy 基础组件专题(七):scrapy 调度器、调度器中间件、自定义调度器
一.调度器 配置 SCHEDULER = 'scrapy.core.scheduler.Scheduler' #表示scrapy包下core文件夹scheduler文件Scheduler类# 可以通过 ...
- Kubernetes之调度器和调度过程
scheduler 当Scheduler通过API server 的watch接口监听到新建Pod副本的信息后,它会检查所有符合该Pod要求的Node列表,开始执行Pod调度逻辑.调度成功后将Pod绑 ...
- 调度器30—调度相关结构体—p->flags
一.PF_EXITING 1. 赋值路径 各驱动和内核机制中直接调用 SYSCALL_DEFINE1(exit, int, error_code) //exit.c do_exit(code); // ...
- 大数据之Yarn——Capacity调度器概念以及配置
试想一下,你现在所在的公司有一个hadoop的集群.但是A项目组经常做一些定时的BI报表,B项目组则经常使用一些软件做一些临时需求.那么他们肯定会遇到同时提交任务的场景,这个时候到底如何分配资源满足这 ...
- Linux核心调度器之周期性调度器scheduler_tick--Linux进程的管理与调度(十八)
我们前面提到linux有两种方法激活调度器:核心调度器和 周期调度器 一种是直接的, 比如进程打算睡眠或出于其他原因放弃CPU 另一种是通过周期性的机制, 以固定的频率运行, 不时的检测是否有必要 因 ...
- linux cfs调度器_理论模型
参考资料:<调度器笔记>Kevin.Liu <Linux kernel development> <深入Linux内核架构> version: 2.6.32.9 下 ...
- Hadoop 三大调度器源码分析及编写自己的调度器
如要转载,请注上作者和出处. 由于能力有限,如有错误,请大家指正. 须知: 我们下载的是hadoop-2.7.3-src 源码. 这个版本默认调度器是Capacity调度器. 在2.0.2-alph ...
随机推荐
- es语法 rest api 模拟query 根据中文姓名搜索demo
es语法 rest api 模拟query 根据中文姓名搜索demo order_info_es/_doc/40094182abc GET order_info_es/_settings?pretty ...
- Lecture3
Smiling & Weeping ---- 蝴蝶在双翼里藏匿夏的脉络 妄图在绿意中品鉴隆冬 第三章 Git分支管理 3.1 分支的简介 Git最重要的运用场景是多人协同开发,但是如何能保证每 ...
- Luban小试牛刀
Luban小试牛刀 LubanUnity LubanUnity配置工具配置解决方案 简介 Github 文档 视频教程 Unity工具 个人感觉挺强大,便捷的,适合中大型游戏项目的配置工作.小 ...
- 用 Visual C++ 2022 和 CMake 编译 CUnit 静态库
准备工作 源代码获取 CUnit 是知名的 C 语言单元测框架,其源代码最初发布在 sourceforge 上,网址为:https://sourceforge.net/projects/cunit/ ...
- JS神奇的或0(|0)
按照常识,位运算x|0,要么等于x,要么等于0 那么在JS的世界你的认知就要被颠覆了 下面请看 不带或0运算: (window.crypto.getRandomValues(new Uint32Arr ...
- 使用 Spring 实现控制反转和依赖注入
使用 Spring 实现控制反转和依赖注入 概述 在本文中,我们将介绍IoC(控制反转)和DI(依赖注入)的概念,以及如何在Spring框架中实现它们. 什么是控制反转? 控制反转是软件工程中的一个原 ...
- 高通与At指令:ATFWD解析
背景 本章的内容是适用于AP侧AT指令开发调试的有关人员. 主要是介绍高通实现的ATFWD框架.在这需要说明一下的是,或许你对AT Command很了解了,但是却貌似都不知道ATFWD,这很正常,严格 ...
- 【Kafka最佳实践】合理安排kafka的broker、partition、consumer数量
broker的数量最好大于等于partition数量 一个partition最好对应一个硬盘,这样能最大限度发挥顺序写的优势. 一个broker如果对应多个partition,需要随机分发,顺序IO会 ...
- python3 webssh
简介 webssh 是 一个简单的 Web 应用程序,用作 ssh 客户端来连接到 ssh 服务器.它是用Python编写的,基于tornado.paramiko和xterm.js.下面简单搭建一个网 ...
- Centos7安装Redis详细步骤(配置开机自启)
Redis 获取redis安装包使用tar命令解压. $ tar -zxzf redis-6.2.6.tar.gz 编译和安装redis 进入redis目录,执行make编译. $ cd redis- ...