CSV格式的文件也称为逗号分隔值(Comma-Separated Values,CSV,有时也称为字符分隔值,因为分隔字符也可以不是逗号。在本文中的CSV格式的数据就不是简单的逗号分割的),其文件以纯文本形式存表格数据(数字和文本)。CSV文件由任意数目的记录组成,记录间以某种换行符分隔;每条记录由字段组成,字段间的分隔符是其它字符或字符串,最常见的是逗号或制表符。通常,所有记录都有完全相同的字段序列。
本篇文章将介绍如何使用Spark 1.3+的外部数据源接口来自定义CSV输入格式的文件解析器。这个外部数据源接口是由databricks公司开发并开源的(地址:https://github.com/databricks/spark-csv),通过这个类库我们可以在Spark SQL中解析并查询CSV中的数据。因为用到了Spark的外部数据源接口,所以我们需要在Spark 1.3+上面使用。在使用之前,我们需要引入以下的依赖:
2 |
<groupId>com.databricks</groupId> |
3 |
<artifactId>spark-csv_2.10</artifactId> |
4 |
<version>1.0.3</version> |
目前spark-csv_2.10的最新版就是1.0.3。如果我们想在Spark shell里面使用,我们可以在--jars选项里面加入这个依赖,如下:
1 |
[iteblog@spark $] bin/spark-shell --packages com.databricks:spark-csv_2.10:1.0.3 |
和《Spark SQL整合PostgreSQL》文章中用到的load函数类似,在使用CSV类库的时候,我们需要在options中传入以下几个选项:
1、path:看名字就知道,这个就是我们需要解析的CSV文件的路径,路径支持通配符;
2、header:默认值是false。我们知道,CSV文件第一行一般是解释各个列的含义的名称,如果我们不需要加载这一行,我们可以将这个选项设置为true;
3、delimiter:默认情况下,CSV是使用英文逗号分隔的,如果不是这个分隔,我们就可以设置这个选项。
4、quote:默认情况下的引号是'"',我们可以通过设置这个选项来支持别的引号。
5、mode:解析的模式。默认值是PERMISSIVE,支持的选项有
(1)、PERMISSIVE:尝试解析所有的行,nulls are inserted for missing tokens and extra tokens are ignored.
(2)、DROPMALFORMED:drops lines which have fewer or more tokens than expected
(3)、FAILFAST: aborts with a RuntimeException if encounters any malformed line
如何使用
1、在Spark SQL中使用
我们可以通过注册临时表,然后使用纯SQL方式去查询CSV文件:
2 |
USING com.databricks.spark.csv |
3 |
OPTIONS (path "cars.csv", header "true") |
我们还可以在DDL中指定列的名字和类型,如下:
1 |
CREATE TABLEcars (yearMade double, carMake string, carModel string, comments string, blank string) |
2 |
USING com.databricks.spark.csv |
3 |
OPTIONS (path "cars.csv", header "true") |
推荐的方式是通过调用SQLContext的load/save函数来加载CSV数据:
1 |
import org.apache.spark.sql.SQLContext |
3 |
val sqlContext = new SQLContext(sc) |
4 |
val df = sqlContext.load("com.databricks.spark.csv", Map("path" -> "cars.csv", "header"-> "true")) |
5 |
df.select("year", "model").save("newcars.csv", "com.databricks.spark.csv") |
当然,我们还可以使用com.databricks.spark.csv._的隐式转换:
1 |
import org.apache.spark.sql.SQLContext |
2 |
import com.databricks.spark.csv._ |
4 |
val sqlContext = new SQLContext(sc) |
6 |
val cars = sqlContext.csvFile("cars.csv") |
7 |
cars.select("year", "model").saveAsCsvFile("newcars.tsv") |
3、在Java中使用
和在Scala中使用类似,我们也推荐调用SQLContext类中 load/save函数
07 |
* 过往记忆博客,专注于hadoop、hive、spark、shark、flume的技术博客,大量的干货 |
08 |
* 过往记忆博客微信公共帐号:iteblog_hadoop |
11 |
import org.apache.spark.sql.SQLContext |
13 |
SQLContext sqlContext = new SQLContext(sc); |
15 |
HashMap<String, String> options = new HashMap<String, String>(); |
16 |
options.put("header", "true"); |
17 |
options.put("path", "cars.csv"); |
19 |
DataFrame df = sqlContext.load("com.databricks.spark.csv", options); |
20 |
df.select("year", "model").save("newcars.csv", "com.databricks.spark.csv"); |
在Java或者是Scala中,我们可以通过CsvParser里面的函数来读取CSV文件:
1 |
import com.databricks.spark.csv.CsvParser; |
2 |
SQLContext sqlContext = new org.apache.spark.sql.SQLContext(sc); |
4 |
DataFrame cars = (new CsvParser()).withUseHeader(true).csvFile(sqlContext, "cars.csv"); |
在Python中,我们也可以使用SQLContext类中 load/save函数来读取和保存CSV文件:
1 |
from pyspark.sql import SQLContext |
2 |
sqlContext = SQLContext(sc) |
4 |
df = sqlContext.load(source="com.databricks.spark.csv", header="true", path = "cars.csv") |
5 |
df.select("year", "model").save("newcars.csv", "com.databricks.spark.csv") |
- 如何用python读写CSV 格式文件
工作中经常会碰到读写CSV文件的情况.记录下,方便自己以后查询并与大家一起分享: 写CSV文件方法一: import csv #导入CSV with open("D:\eg ...
- 使用csv模块读写csv格式文件
import csv class HandleCsv: ''' csv文件处理类 ''' def __init__(self, filename): ''' 构造器 :param filename: ...
- JAVA用geotools读写shape格式文件
转自:http://toplchx.iteye.com/blog/1335007 JAVA用geotools读写shape格式文件 (对应geotools版本:2.7.2) (后面添加对应geotoo ...
- 导出CSV格式文件,用Excel打开乱码的解决办法
导出CSV格式文件,用Excel打开乱码的解决办法 1.治标不治本的办法 将导出CSV数据文件用记事本打开,然后另存为"ANSI"编码格式,再用Excel打开,乱码解决. 但是,这 ...
- Python数据写入csv格式文件
(只是传递,基础知识也是根基) Python读取数据,并存入Excel打开的CSV格式文件内! 这里需要用到bs4,csv,codecs,os模块. 废话不多说,直接写代码!该重要的内容都已经注释了, ...
- java导出csv格式文件
导出csv格式文件的本质是导出以逗号为分隔的文本数据 import java.io.BufferedWriter; import java.io.File; import java.io.FileIn ...
- python3 库pandas写入csv格式文件出现中文乱码问题解决方法
python3 库pandas写入csv格式文件出现中文乱码问题解决方法 解决方案: 问题是使用pandas的DataFrame的to_csv方法实现csv文件输出,但是遇到中文乱码问题,已验证的正确 ...
- mysql导入csv格式文件
今天测试导入csv格式文件,虽然简单但是如果不注意还是会出现错误,而且mysql在某些方面做的确实对新手不是很友好,记录一下:创建一个csv格式文件:[mysql@xxx1 ycrdb]$ more ...
- MYSQL导入CSV格式文件数据执行提示错误(ERROR 1290): The MySQL server is running with the --secure-file-priv option so it cannot execute this statement.
MYSQL导入CSV格式文件数据执行提示错误(ERROR 1290): The MySQL server is running with the --secure-file-priv option s ...
随机推荐
- [实战]MVC5+EF6+MySql企业网盘实战(5)——登录界面,头像等比例压缩
写在前面 关于该项目,已经很久没更新了.实在是找不到一个好的ui,没办法就在网上找了一个还不错的,就凑合着先用着吧,先出第一版,以后的再想着去优化.最近更新与网盘项目相关的内容是准备在项目中使用一个美 ...
- 在linux下安装sbt
1.到官方网站下载deb包,下载地址:https://dl.bintray.com/sbt/debian/sbt-1.0.3.deb 2.点击下载的deb包进行安装 3.安装完成后,在terminal ...
- PHP using mcrypt and store the encrypted in MySQL
This is how I would do it. Create a class to do encryption/decryption: class cipher { private $secur ...
- STL容器 -- Bitset
核心内容:Bitset 是 STL 中的二进制容器, 存放的时 bit 位元素, 每一位只占一个 bit 位, 取值 0 或者 1, 可以像整形元素一样按位与或非, 并且大大优化了时间和空间复杂度. ...
- POJ2955【区间DP】
题目链接[http://poj.org/problem?id=2955] 题意:[].()的匹配问题,问一个[]()串中匹配的字符数,匹配方式为[X],(X),X为一个串,问一个长度为N(N<= ...
- 51nod1515 明辨是非 并查集 + set
一开始想的时候,好像两个并查集就可以做......然后突然懂了什么.... 相同的并查集没有问题,不同的就不能并查集了,暴力的来个set就行了..... 合并的时候启发式合并即可做到$O(n \log ...
- 51nod1203 JZPLCM 线段树 + 扫描线
不算很难的一道题 原题的数据虽然很小,但是我们不能欺负它,我们就要当$S[i] \leqslant 10^9$来做这题 最小公倍数 = 所有的质因数取可能的最大幂相乘 对于$> \sqrt S$ ...
- Block修改变量容易被忽略的方法
C语言里面的 静态变量 静态全局变量 全局变量 其中静态变量和普通变量的截取模式是一样的,只是因为他赋值不被丢弃,所以能修改成功 code: #import <Foundation/Founda ...
- 11.m进制转十进制
Strlen是字符串有多长就是多长,包括所有的元素和\0这个结束符 题目描述 Description 将m进制数n转化成一个十进制数 m<=16 题目保证转换后的十进制数<=100 输入描 ...
- bzoj2938 病毒
Description 二进制病毒审查委员会最近发现了如下的规律:某些确定的二进制串是病毒的代码.如果某段代码中不存在任何一段病毒代码,那么我们就称这段代码是安全的.现在委员会已经找出了所有的病毒代码 ...