Azkaban作为LinkedIn开源的任务流式管理工具,在工作中很大程度上被用到。但是,由于非国人开发,对中文的支持性很不好。大多数情况下,会出现几种乱码现象: - 执行内置脚本生成log乱码 - 直接command执行中文乱码 - 中文包名乱码等,其中对日常使用影响最大的就是日志乱码问题。不管是调度Hive、DataX还是Java程序,只要日志抛出来中文,中文都是乱码显示,将日志文件拷贝出来查看文件格式为GB2312,但是Linux系统编码和Azkaban日志编码明明设置的都是UTF-8,很疑惑,摸索许久,决定从源码入手开始层层解惑。

  文中大部分内容从源码一步步进入解析,有经验的朋友可以跳至文末见具体解决方法。

  根据页面获取日志的接口可以知道方法在 azkaban-web-server项目下package azkaban.webapp.servlet 下的方法handleAJAXAction,如下图 请求参数是fetchExecJobLogs

   对应的处理方法为  ajaxFetchJobLogs(req, resp, ret, session.getUser(), exFlow)和ajaxFetchExecFlowLogs(req, resp, ret, session.getUser(), exFlow)

  进入该方法后可以发现返回的data为经过 StringEscapeUtils.escapeHtml格式化过的,这就是引发乱码的原因之一。

  改用commons-lang3下的方法可以解决这个问题,增加如下依赖后更新gradle项目,将此处StringEscapeUtils.escapeHtml(data.getData())更改为 org.apache.commons.lang3.StringEscapeUtils.escapeHtml3(data.getData())

  // https://mvnrepository.com/artifact/org.apache.commons/commons-lang3
  compile group: 'org.apache.commons', name: 'commons-lang3', version: '3.4'

  修改后为

  仔细研读代码可以发现其实这样还不够,读取日志的时候会先判断该任务是否正在执行,如果在执行的话就直接在服务器上暂存日志路径读取,否则是话就在mysql表读取,具体代码如下

  一.本地文件读取的话是走http请求的,对应的为azkaban-exec-server下的包package azkaban.execapp下的ExecutorServlet

  进入方法handleFetchLogEvent,一个是FlowLogs 一个是JobLogs ,

  进入这两个方法后发现最终都是调用的FileIOUtils.readUtf8File()这个方法

  读取日志的核心方法就是这个了

  1.   BufferedInputStream读取的是字节byte,因为一个汉字占两个字节,而当中英文混合的时候,有的字符占一个字节,有的字符占两个字节,所以如果直接读字节,而数据比较长,没有一次读完的时候,很可能刚好读到一个汉字的前一个字节,这样,这个中文就成了乱码,后面的数据因为没有字节对齐,也都成了乱码.所以我们需要用BufferedReader来读取,
    它读到的是字符,所以不会读到半个字符的情况,不会出现乱码。
  1.   在这里修改方法后为一个新方法如下(编码方式GBK根据生成的日志编码格式设定)
  1. public static LogData readUtf8FileEncode(final File file, final int fileOffset, final int length)
  2. throws IOException {
  3. final char[] chars = new char[length];
  4. final FileInputStream fileStream = new FileInputStream(file);
  5.  
  6. final long skipped = fileStream.skip(fileOffset);
  7. if (skipped < fileOffset) {
  8. fileStream.close();
  9. return new LogData(fileOffset, 0, "");
  10. }
  11.  
  12. BufferedReader reader = null;
  13. int read = 0;
  14. try {
  15. reader = new BufferedReader(new InputStreamReader(fileStream, "GBK"));
  16. read = reader.read(chars);
  17. } finally {
  18. IOUtils.closeQuietly(reader);
  19. }
  20.  
  21. if (read <= 0) {
  22. return new LogData(fileOffset, 0, "");
  23. }
  24. final byte[] buffer = new String(chars).getBytes();
  25. final Pair<Integer, Integer> utf8Range = getUtf8Range(buffer, 0, read);
  26. final String outputString = new String(buffer, utf8Range.getFirst(), utf8Range.getSecond(),
  27. StandardCharsets.UTF_8);
  28.  
  29. return new LogData(fileOffset + utf8Range.getFirst(), utf8Range.getSecond(), outputString);
  30. }
  1.   在原来引用的地方替换为新的即可,如下图。

  二.对于运行完成的,日志会被写入数据库,而且是经过压缩的,方法为 package azkaban.executor下的ExecutionLogsDao 搜索找到fetchLogs,在方法体中实例化了一个FetchLogsHandler

  在FetchLogsHandler中核心方法为handle,在这个方法中可以发现这块会有解压缩的过程,开始怀疑是不是这块出现问题,测试后否定了这一猜想。

  这里有解压,那在入库之前肯定会有压缩过程,再找到入库的方法(如何触发将本地文件写入到数据库在这里不讨论)uploadLogFile(ExecutionLogsDao方法中)

  进入方法体后可以发现和之前类似,也是采用BufferedInputStream读取文件

  修改后的方法为如下(编码方式GBK根据生成的日志编码格式设定)

  1. private void uploadLogFileEncode(final DatabaseTransOperator transOperator, final int execId, final String name,
  2. final int attempt, final File[] files, final EncodingType encType) throws SQLException {
  3. // 50K buffer... if logs are greater than this, we chunk.
  4. // However, we better prevent large log files from being uploaded somehow
  5. final char[] buffer = new char[50 * 1024];
  6. int pos = 0;
  7. int length = buffer.length;
  8. int startByte = 0;
  9. try {
  10. for (int i = 0; i < files.length; ++i) {
  11. final File file = files[i];
  12. // BufferedInputStream读取的是字节byte,因为一个汉字占两个字节,而当中英文混合的时候,有的字符占一个字节,
  13. // 有的字符占两个字节,所以如果直接读字节,而数据比较长,没有一次读完的时候,很可能刚好读到一个汉字的前一个字节,
  14. // 这样,这个中文就成了乱码,后面的数据因为没有字节对齐,也都成了乱码.所以我们需要用BufferedReader来读取,
  15. // 它读到的是字符,所以不会读到半个字符的情况,不会出现乱码
  16. BufferedReader reader = new BufferedReader(new InputStreamReader(new FileInputStream(file), "GBK"));
  17. try {
  18. int size = reader.read(buffer, pos, length);
  19. while (size >= 0) {
  20. if (pos + size == buffer.length) {
  21. // Flush here.
  22. uploadLogPart(transOperator, execId, name, attempt, startByte, startByte + buffer.length,
  23. encType, buffer, buffer.length);
  24.  
  25. pos = 0;
  26. length = buffer.length;
  27. startByte += buffer.length;
  28. } else {
  29. // Usually end of file.
  30. pos += size;
  31. length = buffer.length - pos;
  32. }
  33. size = reader.read(buffer, pos, length);
  34. }
  35. } finally {
  36. IOUtils.closeQuietly(reader);
  37. }
  38. }
  39.  
  40. // Final commit of buffer.
  41. if (pos > 0) {
  42. uploadLogPart(transOperator, execId, name, attempt, startByte, startByte + pos, encType, buffer, pos);
  43. }
  44. } catch (final SQLException e) {
  45. logger.error("Error writing log part.", e);
  46. throw new SQLException("Error writing log part", e);
  47. } catch (final IOException e) {
  48. logger.error("Error chunking.", e);
  49. throw new SQLException("Error chunking", e);
  50. }
  51. }
  52.  
  53. private void uploadLogPart(final DatabaseTransOperator transOperator, final int execId, final String name,
  54. final int attempt, final int startByte, final int endByte, final EncodingType encType, final char[] buffer,
  55. final int length) throws SQLException, IOException {
  56. final String INSERT_EXECUTION_LOGS = "INSERT INTO execution_logs "
  57. + "(exec_id, name, attempt, enc_type, start_byte, end_byte, "
  58. + "log, upload_time) VALUES (?,?,?,?,?,?,?,?)";
  59.  
  60. byte[] buf = new String(buffer).getBytes();
  61. if (encType == EncodingType.GZIP) {
  62. buf = GZIPUtils.gzipBytes(buf, 0, buf.length);
  63. } else if (length < buffer.length) {
  64. buf = new String(buffer, 0, length).getBytes();
  65. }
  66.  
  67. transOperator.update(INSERT_EXECUTION_LOGS, execId, name, attempt, encType.getNumVal(), startByte,
  68. startByte + length, buf, DateTime.now().getMillis());

  以上代码直接放在ExecutionLogsDao内即可,修改引用的地方

   至此日志显示中文乱码问题即可解决。以上为代码分析过程,操作过程可直接总结如下:

1.添加commons-lang3依赖

// https://mvnrepository.com/artifact/org.apache.commons/commons-lang3
compile group: 'org.apache.commons', name: 'commons-lang3', version: '3.4'

2.azkaban-web-server -->package azkaban.webapp.servlet-->ExecutorServlet-->将方法ajaxFetchExecFlowLogs和ajaxFetchJobLogs中的StringEscapeUtils.escapeHtml替换为org.apache.commons.lang3.StringEscapeUtils.escapeHtml3

3.azkaban-common-->package azkaban.utils-->FileIOUtils-->增加方法readUtf8FileEncode (文中第一段代码)

4.azkaban-common-->package azkaban.execapp-->FlowRunnerManager-->分别将readFlowLogs和readJobLogs中readUtf8File替换为readUtf8FileEncode

5.azkaban-common-->package azkaban.executor-->ExecutionLogsDao-->增加方法uploadLogFileEncode和uploadLogPart(重载)(文中第二段代码),将uploadLogFile(在70行左右的这个方法public void uploadLogFile(final int execId, final String name, final int attempt, final File... files))中的uploadLogFile替换为uploadLogFileEncode

  代码修改就是这些,我们可以发现代码中解析文件流都是采用UTF-8,如果生成的日志是其他编码就会出现乱码的情况,所以需要在读取文件的地方指定日志文件编码(还有一种思路就是Log4j写日志时候就指定编码,尝试没有成功就采用了现在的方式),来张前后对比图(对于已经写入数据库的日志,中文乱码问题无法解决,因为写入数据库前读取文件的方法不支持中文,修改代码之后入数据库的日志可以支持中文,另外代码中的GBK可以根据日志编码更换)

Azkaban日志中文乱码问题解决的更多相关文章

  1. WingIDE中文乱码问题解决方法

    WingIDE中文乱码问题解决方法 安装完WingIDE后,首次运行python脚本时,若脚本中含有UTF-8中文,在Debug I/O输出框中,全部变成了乱码. 这时其实我们设置下WingIDE的编 ...

  2. ubuntu mysql emma中文乱码问题解决

    ubuntu mysql emma中文乱码问题解决 emma默认用apt-get 安装的话,emma是不支持中文的,配置文件或直接修改emma程序源文件(python). apt-get安装emma ...

  3. Spring MVC3返回JSON数据中文乱码问题解决(转)

    Spring MVC3返回JSON数据中文乱码问题解决 查了下网上的一些资料,感觉比较复杂,这里,我这几使用两种很简单的办法解决了中文乱码问题. Spring版本:3.2.2.RELEASE Jack ...

  4. Ubuntu下Eclipse中文乱码问题解决(转)

    Ubuntu下Eclipse中文乱码问题解决 把Windows下的工程导入到了Linux下Eclipse中,由于以前的工程代码,都是GBK编码的(Windows下的Eclipse 默认会去读取系统的编 ...

  5. 【转】asp.net Cookie值中文乱码问题解决方法

    来源:脚本之家.百度空间.网易博客 http://www.jb51.net/article/34055.htm http://hi.baidu.com/honfei http://tianminqia ...

  6. soapUI参数中文乱码问题解决方法 (groovy脚本中文乱码)

    soapUI参数中文乱码问题解决方法 可能方案1: 字体不支持中文,将字体修改即可: file-preferences-editor settings-select font 修改字体,改成能显示中文 ...

  7. oracle中文乱码问题解决

    中文乱码问题解决:1.查看服务器端编码select userenv('language') from dual;我实际查到的结果为:AMERICAN_AMERICA.ZHS16GBK2.执行语句 se ...

  8. 【其他】【navicat】【1】navicat导入txt文件中文乱码问题解决

    正文: TXT文件默认编码为ANSI,另存为编码为UTF-8的文本文件即可 备注: 1,一般需要导入的数据都是一张excel表,需要将excel表另存为“文本文件(制表符分隔)(*.txt)”保存类型 ...

  9. LoadRunner中文乱码问题解决方法

    LoadRunner中文乱码问题解决方法 前段时间在录制,增强,整合LoadRunner脚本,期间两次遇到了中文乱码问题.在此记录一下中文乱码问题的解决办法. 一.录制回放中文乱码 我录制登陆的脚本, ...

随机推荐

  1. 用户认证授权和Shiro入门

    1.权限管理基础(认证和授权): 前言 本文主要讲解的知识点有以下: 权限管理的基础知识 模型 粗粒度和细粒度的概念 回顾URL拦截的实现 Shiro的介绍与简单入门 一.Shiro基础知识 在学习S ...

  2. Python中区分函数和方法

    1.简单粗暴型: def func(): ... class Foo: def eat(self): print("吃") f = Foo() print(func) #<f ...

  3. python 中获取列表的索引

    1.index方法 list_a= [12,213,22,2,32]for a in list_a: print(list_a.index(a)) 结果: 0 1 2 3 4 如果列表的没有重复的话那 ...

  4. SharpMap在web上的应用

    最近公司用SharpMap做了一个做桌面程序,它是一个开源的Gis项目,功能还可以,最大的特点就是简单易用,这里介绍下怎么在web下使用: 这次我们根据demo先了解一下如何show一个地图.这是最基 ...

  5. 前端笔记知识点整合之JavaScript(四)关于函数、作用域、闭包那点事

    一.自定义函数function 函数就是功能.方法的封装.函数能够帮我们封装一段程序代码,这一段代码会具备某一项功能,函数在执行时,封装的这一段代码都会执行一次,实现某种功能.而且,函数可以多次调用. ...

  6. python学习第37天

    MySQL数据库 数据库的优势 什么是数据(Data) 什么是数据库(DataBase,简称DB) 什么是数据库管理系统(DataBase Managerment System 简称DBMS) 数据库 ...

  7. Java中int和String类型之间转换

    int –> String int i=123; String s=""; 第一种方法:s=i+""; //会产生两个String对象 第二种方法:s=S ...

  8. vmware克隆虚拟机后无法联网

    1.基础知识: 就算是克隆的系统,但是由于物理地址改变了,导致rules文件进行了重新绑定 网卡会从eth0变成eth1(逐渐+1),而且mac地址和uuid也会有变化. 2.解决方法: 2.1编辑e ...

  9. OpenStack—neutron组件介绍与安装

    neutron介绍 Neutron 概述:传统的网络管理方式很大程度上依赖于管理员手工配置和维护各种网络硬件设备:而云环境下的网络已经变得非常复杂,特别是在多租户场景里,用户随时都可能需要创建.修改和 ...

  10. vue.js遍历ajax请求的数据

    <div id="dv" style="text-align: center;"><div class="head input-gr ...