如何让sparkSQL在对接mysql的时候,除了支持:Append、Overwrite、ErrorIfExists、Ignore;还要在支持update操作

1、首先了解背景

spark提供了一个枚举类,用来支撑对接数据源的操作模式

通过源码查看,很明显,spark是不支持update操作的

2、如何让sparkSQL支持update

关键的知识点就是:

我们正常在sparkSQL写数据到mysql的时候:

大概的api是:

dataframe.write
        .format("sql.execution.customDatasource.jdbc")
        .option("jdbc.driver", "com.mysql.jdbc.Driver")
        .option("jdbc.url", "jdbc:mysql://localhost:3306/test?user=root&password=&useUnicode=true&characterEncoding=gbk&autoReconnect=true&failOverReadOnly=false")
        .option("jdbc.db", "test")
        .save()

那么在底层中,spark会通过JDBC方言JdbcDialect , 将我们要插入的数据翻译成:

insert into student (columns_1 , columns_2 , ...) values (? , ? , ....)

那么通过方言解析出的sql语句就通过PrepareStatement的executeBatch(),将sql语句提交给mysql,然后数据插入;

那么上面的sql语句很明显,完全就是插入代码,并没有我们期望的 update操作,类似:

UPDATE table_name SET field1=new-value1, field2=new-value2

但是mysql独家支持这样的sql语句:

INSERT INTO student (columns_1,columns_2)VALUES ('第一个字段值','第二个字段值') ON DUPLICATE KEY UPDATE columns_1 = '呵呵哒',columns_2 = '哈哈哒';

大概的意思就是,如果数据不存在则插入,如果数据存在,则 执行update操作;

因此,我们的切入点就是,让sparkSQL内部对接JdbcDialect的时候,能够生成这种sql:

INSERT INTO 表名称 (columns_1,columns_2)VALUES ('第一个字段值','第二个字段值') ON DUPLICATE KEY UPDATE columns_1 = '呵呵哒',columns_2 = '哈哈哒';

3、改造源码前,需要了解整体的代码设计和执行流程

首先是:

dataframe.write

调用write方法就是为了返回一个类:DataFrameWriter

主要是因为DataFrameWriter是sparksql对接外部数据源写入的入口携带类,下面这些内容是给DataFrameWriter注册的携带信息

然后在出发save()操作后,就开始将数据写入;

接下来看save()源码:

在上面的源码里面主要是注册DataSource实例,然后使用DataSource的write方法进行数据写入

实例化DataSource的时候:

def save(): Unit = {
   assertNotBucketed("save")
   val dataSource = DataSource(
     df.sparkSession,
     className = source,//自定义数据源的包路径
     partitionColumns = partitioningColumns.getOrElse(Nil),//分区字段
     bucketSpec = getBucketSpec,//分桶(用于hive)
     options = extraOptions.toMap)//传入的注册信息
//mode:插入数据方式SaveMode , df:要插入的数据
   dataSource.write(mode, df)
}

然后就是dataSource.write(mode, df)的细节,整段的逻辑就是:

根据providingClass.newInstance()去做模式匹配,然后匹配到哪里,就执行哪里的代码;

然后看下providingClass是什么:

拿到包路径.DefaultSource之后,程序进入:

那么如果是数据库作为写入目标的话,就会走:dataSource.createRelation,直接跟进源码:

很明显是个特质,因此哪里实现了特质,程序就会走到哪里了;

实现这个特质的地方就是:包路径.DefaultSource , 然后就在这里面去实现数据的插入和update的支持操作;

4、改造源码

根据代码的流程,最终sparkSQL 将数据写入mysql的操作,会进入:包路径.DefaultSource这个类里面;

也就是说,在这个类里面既要支持spark的正常插入操作(SaveMode),还要在支持update;

如果让sparksql支持update操作,最关键的就是做一个判断,比如:

if(isUpdate){
sql语句:INSERT INTO student (columns_1,columns_2)VALUES ('第一个字段值','第二个字段值') ON DUPLICATE KEY UPDATE columns_1 = '呵呵哒',columns_2 = '哈哈哒';
}else{
   insert into student (columns_1 , columns_2 , ...) values (? , ? , ....)
}

但是,在spark生产sql语句的源码中,是这样写的:

没有任何的判断逻辑,就是最后生成一个:

INSERT INTO TABLE (字段1 , 字段2....) VALUES (? , ? ...)

所以首要的任务就是 ,怎么能让当前代码支持:ON DUPLICATE KEY UPDATE

可以做个大胆的设计,就是在insertStatement这个方法中做个如下的判断

def insertStatement(conn: Connection, savemode:CustomSaveMode , table: String, rddSchema: StructType, dialect: JdbcDialect)
    : PreparedStatement = {
   val columns = rddSchema.fields.map(x => dialect.quoteIdentifier(x.name)).mkString(",")
   val placeholders = rddSchema.fields.map(_ => "?").mkString(",")
   if(savemode == CustomSaveMode.update){
  //TODO 如果是update,就组装成ON DUPLICATE KEY UPDATE的模式处理
       s"INSERT INTO $table ($columns) VALUES ($placeholders) ON DUPLICATE KEY UPDATE $duplicateSetting"
  }esle{
       val sql = s"INSERT INTO $table ($columns) VALUES ($placeholders)"
  conn.prepareStatement(sql)
  }
   
}

这样,在用户传递进来的savemode模式,我们进行校验,如果是update操作,就返回对应的sql语句!

所以按照上面的逻辑,我们代码这样写:

这样我们就拿到了对应的sql语句;

但是只有这个sql语句还是不行的,因为在spark中会执行jdbc的prepareStatement操作,这里面会涉及到游标。

即jdbc在遍历这个sql的时候,源码会这样做:

看下makeSetter:

所谓有坑就是:

insert into table (字段1 , 字段2, 字段3) values (? , ? , ?)

那么当前在源码中返回的数组长度应该是3:

val setters: Array[JDBCValueSetter] = rddSchema.fields.map(_.dataType)
      .map(makeSetter(conn, dialect, _)).toArray

但是如果我们此时支持了update操作,既:

insert into table (字段1 , 字段2, 字段3) values (? , ? , ?) ON DUPLICATE KEY UPDATE 字段1 = ?,字段2 = ?,字段3=?;

那么很明显,上面的sql语句提供了6个? , 但在规定字段长度的时候只有3

这样的话,后面的update操作就无法执行,程序报错!

所以我们需要有一个 识别机制,既:

if(isupdate){
val numFields = rddSchema.fields.length *
}else{
val numFields = rddSchema.fields.length
}

row[1,2,3] setter(0,1) //index of setter , index of row setter(1,2) setter(2,3) setter(3,1) setter(4,2) setter(5,3)

所以在prepareStatment中的占位符应该是row的两倍,而且应该是类似这样的一个逻辑

因此,代码改造前样子:

改造后的样子:

try {
     if (supportsTransactions) {
       conn.setAutoCommit(false) // Everything in the same db transaction.
       conn.setTransactionIsolation(finalIsolationLevel)
    }
//     val stmt = insertStatement(conn, table, rddSchema, dialect)
     //此处采用最新自己的sql语句,封装成prepareStatement
     val stmt = conn.prepareStatement(sqlStmt)
     println(sqlStmt)
     /**
       * 在mysql中有这样的操作:
       * INSERT INTO user_admin_t (_id,password) VALUES ('1','第一次插入的密码')
       * INSERT INTO user_admin_t (_id,password)VALUES ('1','第一次插入的密码') ON DUPLICATE KEY UPDATE _id = 'UpId',password = 'upPassword';
       * 如果是下面的ON DUPLICATE KEY操作,那么在prepareStatement中的游标会扩增一倍
       * 并且如果没有update操作,那么他的游标是从0开始计数的
       * 如果是update操作,要算上之前的insert操作
       * */
       //makeSetter也要适配update操作,即游标问题


     val isUpdate = saveMode == CustomSaveMode.Update

     val setters: Array[JDBCValueSetter] = isUpdate match {
       case true =>
         val setters: Array[JDBCValueSetter] = rddSchema.fields.map(_.dataType)
          .map(makeSetter(conn, dialect, _)).toArray
         Array.fill(2)(setters).flatten
       case _ =>
         rddSchema.fields.map(_.dataType)
          .map(makeSetter(conn, dialect, _)).toArray
    }


     val numFieldsLength = rddSchema.fields.length
     val numFields = isUpdate match{
       case true => numFieldsLength *2
       case _ => numFieldsLength
    }
     val cursorBegin = numFields / 2
     try {
       var rowCount = 0
       while (iterator.hasNext) {
         val row = iterator.next()
         var i = 0
         while (i < numFields) {
           if(isUpdate){
             //需要判断当前游标是否走到了ON DUPLICATE KEY UPDATE
             i < cursorBegin match{
                 //说明还没走到update阶段
               case true =>
                 //row.isNullAt 判空,则设置空值
                 if (row.isNullAt(i)) {
                   stmt.setNull(i + 1, nullTypes(i))
                } else {
                   setters(i).apply(stmt, row, i, 0)
                }
                 //说明走到了update阶段
               case false =>
                 if (row.isNullAt(i - cursorBegin)) {
                   //pos - offset
                   stmt.setNull(i + 1, nullTypes(i - cursorBegin))
                } else {
                   setters(i).apply(stmt, row, i, cursorBegin)
                }
            }
          }else{
             if (row.isNullAt(i)) {
               stmt.setNull(i + 1, nullTypes(i))
            } else {
               setters(i).apply(stmt, row, i ,0)
            }
          }
           //滚动游标
           i = i + 1
        }
         stmt.addBatch()
         rowCount += 1
         if (rowCount % batchSize == 0) {
           stmt.executeBatch()
           rowCount = 0
        }
      }
       if (rowCount > 0) {
         stmt.executeBatch()
      }
    } finally {
       stmt.close()
    }
     if (supportsTransactions) {
       conn.commit()
    }
     committed = true
     Iterator.empty
  } catch {
     case e: SQLException =>
       val cause = e.getNextException
       if (cause != null && e.getCause != cause) {
         if (e.getCause == null) {
           e.initCause(cause)
        } else {
           e.addSuppressed(cause)
        }
      }
       throw e
  } finally {
     if (!committed) {
       // The stage must fail. We got here through an exception path, so
       // let the exception through unless rollback() or close() want to
       // tell the user about another problem.
       if (supportsTransactions) {
         conn.rollback()
      }
       conn.close()
    } else {
       // The stage must succeed. We cannot propagate any exception close() might throw.
       try {
         conn.close()
      } catch {
         case e: Exception => logWarning("Transaction succeeded, but closing failed", e)
      }
    }
// A `JDBCValueSetter` is responsible for setting a value from `Row` into a field for
 // `PreparedStatement`. The last argument `Int` means the index for the value to be set
 // in the SQL statement and also used for the value in `Row`.
 //PreparedStatement, Row, position , cursor
 private type JDBCValueSetter = (PreparedStatement, Row, Int , Int) => Unit

 private def makeSetter(
     conn: Connection,
     dialect: JdbcDialect,
     dataType: DataType): JDBCValueSetter = dataType match {
   case IntegerType =>
    (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
       stmt.setInt(pos + 1, row.getInt(pos - cursor))

   case LongType =>
    (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
       stmt.setLong(pos + 1, row.getLong(pos - cursor))

   case DoubleType =>
    (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
       stmt.setDouble(pos + 1, row.getDouble(pos - cursor))

   case FloatType =>
    (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
       stmt.setFloat(pos + 1, row.getFloat(pos - cursor))

   case ShortType =>
    (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
       stmt.setInt(pos + 1, row.getShort(pos - cursor))

   case ByteType =>
    (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
       stmt.setInt(pos + 1, row.getByte(pos - cursor))

   case BooleanType =>
    (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
       stmt.setBoolean(pos + 1, row.getBoolean(pos - cursor))

   case StringType =>
    (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
//       println(row.getString(pos))
       stmt.setString(pos + 1, row.getString(pos - cursor))

   case BinaryType =>
    (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
       stmt.setBytes(pos + 1, row.getAs[Array[Byte]](pos - cursor))

   case TimestampType =>
    (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
       stmt.setTimestamp(pos + 1, row.getAs[java.sql.Timestamp](pos - cursor))

   case DateType =>
    (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
       stmt.setDate(pos + 1, row.getAs[java.sql.Date](pos - cursor))

   case t: DecimalType =>
    (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
       stmt.setBigDecimal(pos + 1, row.getDecimal(pos - cursor))

   case ArrayType(et, _) =>
     // remove type length parameters from end of type name
     val typeName = getJdbcType(et, dialect).databaseTypeDefinition
      .toLowerCase.split("\\(")(0)
    (stmt: PreparedStatement, row: Row, pos: Int,cursor:Int) =>
       val array = conn.createArrayOf(
         typeName,
         row.getSeq[AnyRef](pos - cursor).toArray)
       stmt.setArray(pos + 1, array)

   case _ =>
    (_: PreparedStatement, _: Row, pos: Int,cursor:Int) =>
       throw new IllegalArgumentException(
         s"Can't translate non-null value for field $pos")
}

完整代码:

https://github.com/niutaofan/bazinga

如何让spark sql写mysql的时候支持update操作的更多相关文章

  1. spark sql 访问mysql数据库

    pom.xml <dependency> <groupId>mysql</groupId> <artifactId>mysql-connector-ja ...

  2. MySQL(存储过程,支持事务操作)

    day61 保存在MySQL上的一个别名   >   一坨SQL语句 -- delimiter // -- create procedure p1() -- BEGIN -- select * ...

  3. MySQL与SqlServer中update操作同一个表问题

    一 SqlServer中操作如下图 这个是没问题的. 二 MySQL中操作如下图 但是在MySQL中想实现这个功能如下图,但是出错了. 原来是MySQL中不支持子查询的 我们可以这样修改一下就可以实现 ...

  4. Linux系统安装MySQL步骤及支持远程操作配置方法

    一.数据库安装(安装在/usr/local目录) 1. 压缩包拷贝到/users/lengyufang/tools 2. groupadd mysql3. useradd -r -g mysql -s ...

  5. mysql之数据初始化update操作

    1.单表的:update user set name = (select name from user where id in (select id from user where name='小苏' ...

  6. Apache Spark 2.2.0 中文文档 - Spark SQL, DataFrames and Datasets Guide | ApacheCN

    Spark SQL, DataFrames and Datasets Guide Overview SQL Datasets and DataFrames 开始入门 起始点: SparkSession ...

  7. Spark SQL 1.3测试

    Spark SQL 1.3 参考官方文档:Spark SQL and DataFrame Guide 概览介绍参考:平易近人.兼容并蓄——Spark SQL 1.3.0概览 DataFrame提供了一 ...

  8. 大数据技术之_19_Spark学习_03_Spark SQL 应用解析 + Spark SQL 概述、解析 、数据源、实战 + 执行 Spark SQL 查询 + JDBC/ODBC 服务器

    第1章 Spark SQL 概述1.1 什么是 Spark SQL1.2 RDD vs DataFrames vs DataSet1.2.1 RDD1.2.2 DataFrame1.2.3 DataS ...

  9. 【慕课网实战】七、以慕课网日志分析为例 进入大数据 Spark SQL 的世界

    用户:     方便快速从不同的数据源(json.parquet.rdbms),经过混合处理(json join parquet),     再将处理结果以特定的格式(json.parquet)写回到 ...

随机推荐

  1. java7:核心技术与最佳实践读书笔记——类加载

    流程:class -> 加载 ->  jvm虚拟机 -> 链接 . 一.类加载器概述 1.引出      类加载器也是一个java类,java.lang.ClassLoader类是所 ...

  2. StoneTab标签页CAD插件 3.2.6

    //////////////////////////////////////////////////////////////////////////////////////////////////// ...

  3. Signalr Vue Echarts绘制实时CPU使用率

    后端基于Asp.net webapi,前端Vue,前后端分离,该demo仅做演示,实现的细节可以自己优化 Echarts:4.2.1  可参考 官网 Jquery:3.4.1 Signalr:2.4. ...

  4. C# enum枚举知识总结

    C#中除了简单的变量类型外,还提供了三种较为复杂的变量类型,包括枚举.结构和数组.本文主要讲述枚举相关的知识. 枚举类型(也称为枚举),提供了一种有效的方式,来定义可能分配给变量的一组已命名的整数常量 ...

  5. 我理解的epoll(三)多线程模式下的ET

    ET模式下,需要循环从缓存中读取,直到返回EAGAIN没有数据可读后,一个被通知的事件才算结束.如果还读取过程中,同一个连接又有新的事件到来,触发其他线程处理同一个socket,就乱了.EPOLL_O ...

  6. redis和memcacahe、mongoDB的区别

    都是非关系型数据库,性能都非常高,但是mongoDB和memcache.redis是不同的两种类型.后两者主要用于数据的缓存,前者主要用在查询和储存大数据方面,是最接近数据库的文档型的非关系数据库. ...

  7. Beego框架POST请求接收JSON数据

    原文: https://blog.csdn.net/Aaron_80726/article/details/83870563 ------------------------------------- ...

  8. Ajax fileUpload

    在项目开发中用到ajax 的 fileUpload,遇到onchange事件只触发一次 原因是fileUpload调用后将原有的file元素改变了,需要早upload后重新绑定元素 第一次绑定: $( ...

  9. 用cmd 如何输入命令,进入文件夹

    用cmd 如何输入命令 进入文件夹 盘符: 例如想进入D盘 d: cd 进入到当前盘某个目录.cd \ 进入当前盘根目录cd \windows 进入到当前盘Windows目录cd.. 退出到上一级目录 ...

  10. Redis之哨兵机制(五)

    什么是哨兵机制 Redis的哨兵(sentinel) 系统用于管理多个 Redis 服务器,该系统执行以下三个任务: ·        监控(Monitoring): 哨兵(sentinel) 会不断 ...