Spark提供的JdbcRDD很不好用,没法指定命名参数,而且必须要提供两个Long类型的参数表示分区的范围,如果数据表没有long类型的字段或者不需要条件,那就不能用JdbcRDD了.这里我简单重写了一个GenericJdbcRDD,支持命名参数和分区,仅仅作为参考哦. 项目结构如下: GenericJdbcRDD.scala package yay.jdbc.rdd import java.sql.{Connection, ResultSet} import org.apache.spark…