Spark2 SQL configuration参数配置
查看当前环境SQL参数的配置
spark.sql("SET -v")
| key | value |
| spark.sql.hive.version | 1.2.1 |
| spark.sql.sources.parallelPartitionDiscovery.threshold | 32 |
| spark.sql.hive.metastore.barrierPrefixes | |
| spark.sql.shuffle.partitions | 200 |
| spark.sql.hive.metastorePartitionPruning | FALSE |
| spark.sql.broadcastTimeout | 300 |
| spark.sql.sources.bucketing.enabled | TRUE |
| spark.sql.parquet.filterPushdown | TRUE |
| spark.sql.statistics.fallBackToHdfs | FALSE |
| spark.sql.adaptive.enabled | FALSE |
| spark.sql.parquet.cacheMetadata | TRUE |
| spark.sql.hive.metastore.sharedPrefixes | com.mysql.jdbc |
| spark.sql.parquet.respectSummaryFiles | FALSE |
| spark.sql.warehouse.dir | hdfs:///user/spark/warehouse |
| spark.sql.orderByOrdinal | TRUE |
| spark.sql.hive.convertMetastoreParquet | TRUE |
| spark.sql.groupByOrdinal | TRUE |
| spark.sql.hive.thriftServer.async | TRUE |
| spark.sql.thriftserver.scheduler.pool | <undefined> |
| spark.sql.orc.filterPushdown | FALSE |
| spark.sql.adaptive.shuffle.targetPostShuffleInputSize | 67108864b |
| spark.sql.sources.default | parquet |
| spark.sql.parquet.compression.codec | snappy |
| spark.sql.hive.metastore.version | 1.2.1 |
| spark.sql.sources.partitionDiscovery.enabled | TRUE |
| spark.sql.crossJoin.enabled | FALSE |
| spark.sql.parquet.writeLegacyFormat | FALSE |
| spark.sql.hive.verifyPartitionPath | FALSE |
| spark.sql.variable.substitute | TRUE |
| spark.sql.thriftserver.ui.retainedStatements | 200 |
| spark.sql.hive.convertMetastoreParquet.mergeSchema | FALSE |
| spark.sql.parquet.enableVectorizedReader | TRUE |
| spark.sql.parquet.mergeSchema | FALSE |
| spark.sql.parquet.binaryAsString | FALSE |
| spark.sql.columnNameOfCorruptRecord | _corrupt_record |
| spark.sql.files.maxPartitionBytes | 134217728 |
| spark.sql.streaming.checkpointLocation | <undefined> |
| spark.sql.variable.substitute.depth | 40 |
| spark.sql.parquet.int96AsTimestamp | TRUE |
| spark.sql.autoBroadcastJoinThreshold | 10485760 |
| spark.sql.pivotMaxValues | 10000 |
| spark.sql.sources.partitionColumnTypeInference.enabled | TRUE |
| spark.sql.hive.metastore.jars | builtin |
| spark.sql.thriftserver.ui.retainedSessions | 200 |
| spark.sql.sources.maxConcurrentWrites | 1 |
| spark.sql.parquet.output.committer.class | org.apache.parquet.hadoop.ParquetOutputCommitter |
Spark2 SQL configuration参数配置的更多相关文章
- [sql]mysql参数(配置)手册
my-innodb-heavy-4G.cnf配置文件注解 [client] #客户端 port = 3306 #mysql客户端连接时的默认端口号 socket = /application/mysq ...
- 自制xml实现SQL动态参数配置
此文章是基于 搭建SpringMVC+Spring+Hibernate平台 一. 准备工作 1. 点击此找到并下载 commons-digester3-3.2.jar 2. 点击此找到并下载 comm ...
- Hive命令行及参数配置
1 . Hive 命令行 输入$HIVE_HOME/bin/hive –H 或者 –help 可以显示帮助选项: 说明: 1. -i 初始化 HQL 文件. 2. -e 从命令行执行指定的 HQL ...
- 教你如何利用分布式的思想处理集群的参数配置信息——spring的configurer妙用
引言 最近LZ的技术博文数量直线下降,实在是非常抱歉,之前LZ曾信誓旦旦的说一定要把<深入理解计算机系统>写完,现在看来,LZ似乎是在打自己脸了.尽管LZ内心一直没放弃,但从现状来看,需要 ...
- IIS 7.5 高并发参数配置
IIS 7.5 高并发参数配置 由于之前使用的是默认配置,服务器最多只能处理5000个同时请求,对于高并发请求,参照文档设置10万并发 1. 调整IIS 7应用程序池队列长度 由原来的默认1000改为 ...
- SQL SERVER 2008配置Database Mail –用SQL 数据库发邮件
SQL SERVER 2008配置Database Mail –用SQL 数据库发邮件 https://blogs.msdn.microsoft.com/apgcdsd/2011/06/28/sql ...
- Sqlserver推荐参数配置及日志收缩问题
最近不定期有项目反馈周期性的系统整体性能下降情况,经分析存在因数据库环境.参数配置不佳造成的.比如,sqlserver日志文件缺省按百分比增长,当日志文件已经比较大时,每次扩展时耗时较长,系统整体卡顿 ...
- Liferay中SQL打印参数
XX\tomcat-7.0.42\webapps\ROOT\WEB-INF\classes\log4j.properties log4j.rootLogger=INFO, CONSOLE log4 ...
- 14.6.1 InnoDB Startup Configuration 启动配置
14.6.1 InnoDB Startup Configuration 启动配置 首先描述关于InnoDB 配置设计数据库文件,日志文件,page size 和内存buffer 的配置. 推荐你定义数 ...
随机推荐
- 【转】Java代码操作Redis的sentinel和Redis的集群Cluster操作
总共四台机器,crxy99,crxy98分别是主节点和从节点. crxy97和crxy96是两个监控此主从架构的sentinel节点. 直接看代码: 1 import org.junit.Test ...
- The confusion about jsp four scopes and ServletContext,HttpSession,HttpServletReqest,PageContext
The jsp four scopes are same with ServletContext,HttpSession,HttpServletRequest,PageContext? How ser ...
- Java Jdk1.8 HashMap源代码阅读笔记二
三.源代码阅读 3.元素包括containsKey(Object key) /** * Returns <tt>true</tt> if this map contains a ...
- SpringBoot(四)-- 整合Servlet、Filter、Listener
SpringBoot中有两种方式可以添加 Servlet.Filter.Listener. 1.代码注册 通过ServletRegistrationBean. FilterRegistrationBe ...
- Ansible 使用 Playbook 安装 Nginx
思路:先在一台机器上编译安装好 Nginx,打包,然后通过 Ansible 下发 [root@localhost ~]$ cd /etc/ansible/ [root@localhost ansibl ...
- 使用pyinotify监控文件系统的变化
pyinotify依赖Linux内核inotify功能,它需要在2.6.13版本的内核的Linux系统上运行. 1. 安装pyinotify pip install pyinotify 安装完后可以直 ...
- 偶值得纪念的一天-初学习C#
今天好悲催啊,竟然生病啦,不过一切还好! 今天我们在云和数据学习的第二天,上午没有听课,似乎学习了变量的定义以及命名方法,还有变量类型的显隐式转换:我感觉这些还是在之前看书知道啦把,因此看啦看老师做的 ...
- 【LeetCode OJ】Longest Substring Without Repeating Characters
题目链接:https://leetcode.com/problems/longest-substring-without-repeating-characters/ 题目:Given a string ...
- URL域名获取
http://"是协议名 "www.test.com"是域名 "是端口号 "aaa"是站点名 "bbb.aspx"是页面 ...
- 【python】flask 开启 debug 模式
方法一: 直接在run的时候添加debug from flask import Flask app = Flask(__name__) @app.route('/') def hello_world( ...