SparkSql整合Hive 需要Hive的元数据,hive的元数据存储在Mysql里,sparkSql替换了yarn,不需要启动yarn,需要启动hdfs 首先你得有hive,然后你得有spark,如果是高可用hadoop还得有zookeeper,还得有dfs(hadoop中的) 我这里有3台节点node01,node02,node03 ps:DATEDIFF(A,B)做差集 node01 先copy hive的hive-site.xml到spark 的config cp hive-site.…