问题:我用 sqoop 把 Mysql 中的数据导入到 hive,使用了--delete-target-dir --hive-import --hive-overwrite 等参数,执行了两次. mysql 中只有 20 条记录.在 hive shell 中,查询导入到的表的记录,得到结果 20 条,是对的. 然而在 spark-shell 中,使用 spark sql 得到的结果却是 40 条. 又执行了一次 sqoop 的导入,hive 中仍然查询到 20 条,而 spark shell 中…