Spark实战3:Maven_Java_HelloWorld
Spark独立开发应用( Java语言)
1 创建SimpleApp.java文件:
/* SimpleApp.java */
importorg.apache.spark.api.java.*;
importorg.apache.spark.SparkConf;
importorg.apache.spark.api.java.function.Function;
publicclass
SimpleApp
{
public
static
void
main(String[]
args)
{
String
logFile
=
"YOUR_SPARK_HOME/README.md";
// Should be some file on your system
SparkConf
conf
=
new
SparkConf().setAppName("Simple Application");
JavaSparkContext
sc
=
new
JavaSparkContext(conf);
JavaRDD<String>
logData
=
sc.textFile(logFile).cache();
long
numAs
=
logData.filter(new
Function<String,
Boolean>()
{
public
Boolean
call(String
s)
{
return
s.contains("a");
}
}).count();
long
numBs
=
logData.filter(new
Function<String,
Boolean>()
{
public
Boolean
call(String
s)
{
return
s.contains("b");
}
}).count();
System.out.println("Lines with a: "
+
numAs
+
", lines with b: "
+
numBs);
}
}
2 创建pox文件
<project>
<groupId>
edu.berkeley
</groupId>
<artifactId>
simple-project
</artifactId>
<modelVersion>
4.0.0
</modelVersion>
<name>
Simple Project
</name>
<packaging>
jar
</packaging>
<version>
1.0
</version>
<dependencies>
<dependency>
<!-- Spark dependency -->
<groupId>
org.apache.spark
</groupId>
<artifactId>
spark-core_2.10
</artifactId>
<version>
1.6.2
</version>
</dependency>
</dependencies>
</project>
3 路径
4 执行命令
$ /opt/mapr/spark/spark-1.6.1/bin/spark-submit
\
--class
"org.sparkexample.SimpleApp"\
--master
local[4
]\
simple-project-1.0.jar
5总结
Maven编译注意网速要好,Spark独立应用和shell不同的地方是需要自己创建SparkContext。
源码在人GitHub: https://github.com/rongyux/Spark_Maven_Java_HelloWorld
Spark实战3:Maven_Java_HelloWorld的更多相关文章
- Spark实战1
1. RDD-(Resilient Distributed Dataset)弹性分布式数据集 Spark以RDD为核心概念开发的,它的运行也是以RDD为中心.有两种RDD:第一种是并行Col ...
- Spark GraphX宝刀出鞘,图文并茂研习图计算秘笈与熟练的掌握Scala语言【大数据Spark实战高手之路】
Spark GraphX宝刀出鞘,图文并茂研习图计算秘笈 大数据的概念与应用,正随着智能手机.平板电脑的快速流行而日渐普及,大数据中图的并行化处理一直是一个非常热门的话题.图计算正在被广泛地应用于社交 ...
- Spark实战--搭建我们的Spark分布式架构
Spark的分布式架构 如我们所知,spark之所以强大,除了强大的数据处理功能,另一个优势就在于良好的分布式架构.举一个例子在Spark实战--寻找5亿次访问中,访问次数最多的人中,我用四个spar ...
- Spark入门实战系列--6.SparkSQL(下)--Spark实战应用
[注]该系列文章以及使用到安装包/测试数据 可以在<倾情大奉送--Spark入门实战系列>获取 .运行环境说明 1.1 硬软件环境 线程,主频2.2G,10G内存 l 虚拟软件:VMwa ...
- 云计算分布式大数据神器Spark实战高手之旅
从2012年1月份研究Spark到如今已经两年多的时间了. 在这两年多的时间里比較彻底的研究了Spark的源码并已经在2014年4月24日编写完毕了世界上第一本Spark书籍. 鉴于CSDN在大陆IT ...
- Spark实战之读写HBase
1 配置 1.1 开发环境: HBase:hbase-1.0.0-cdh5.4.5.tar.gz Hadoop:hadoop-2.6.0-cdh5.4.5.tar.gz ZooKeeper:zooke ...
- Spark实战
实战 数据导入Hive中全量: 拉链增量:用户.商品表数据量大时用 拉链表动作表 增量城市信息 全量 需求一: 获取点击.下单和支付数量排名前 的品类 ①使用累加器: click_category_i ...
- Spark实战系列目录
1 Spark rdd -- action函数详解与实战 2 Spark rdd -- transformations函数详解与实战(上) 3 Spark rdd -- transformations ...
- Spark实战电影点评系统(二)
二.通过DataFrame实战电影点评系统 DataFrameAPI是从Spark 1.3开始就有的,它是一种以RDD为基础的分布式无类型数据集,它的出现大幅度降低了普通Spark用户的学习门槛. D ...
随机推荐
- nodejs获取当前url和url参数值
//需要使用的模块 http url 当前url http://localhost:8888/select?aa=001&bb=002 var http = require('http ...
- 浅析Spring中的注解
Spring的配置,通常有两种:使用配置文件和注解.那么Spring如何知道各个Bean或者Service.Controller以及Bean中各类属性之间的关系呢?答案肯定是在定义各个Java文件的时 ...
- 行业集中度(Concentration Ratio)
行业集中度是决定市场结构最基本.最重要的因素,集中体现了市场的竞争和垄断程度,经常使用的集中度计量指标有:行业集中率(CRn指数).赫尔芬达尔—赫希曼指数(Herfindahl-HirschmanIn ...
- respond.min.js IE失效问题
respond.min.js 用于解决 ie6-ie8媒体查询 兼容问题: 1. 需把文件置于服务器上,iis下运行 2.包含媒体查询的 css文件需 采用外链形式 3.头部引用的respond.m ...
- Asp文件锁定脚本
锁定指定文件 <% on error resume next server.ScriptTimeout= response.write "<form method=post> ...
- 理解group by 语句的扩展使用
在SQL的开发中我们会经常使用group by语句对数据进行分组统计,然而在一些复杂的BI报表开发中会常遇到更复杂的分组需求,单单使用group by 就不能解决我们的问题了,这时我们就需要学习了解一 ...
- MyEclipse自定义快捷键
MyEclipse快捷键设置 分类: JAVA2011-06-30 09:35 11255人阅读 评论(2) 收藏 举报 myeclipseeclipsetriggersmicrosoftjavabi ...
- python子类调用父类的方法
python子类调用父类的方法 python和其他面向对象语言类似,每个类可以拥有一个或者多个父类,它们从父类那里继承了属性和方法.如果一个方法在子类的实例中被调用,或者一个属性在子类的实例中被访问, ...
- Android课程---布局管理器中的线性布局
线性布局实例: <?xml version="1.0" encoding="utf-8"?><LinearLayout xmlns:andro ...
- FCM算法
FCM算法是一种基于划分的聚类算法,它的思想就是使得被划分到同一簇的对象之间相似度最大,而不同簇之间的相似度最小.模糊C均值算法是普通C均值算法的改进,普通C均值算法对于数据的划分是硬性的,而FCM则 ...