[转] 用SBT编译Spark的WordCount程序
问题导读:
1.什么是sbt?
2.sbt项目环境如何建立?
3.如何使用sbt编译打包scala?
【sbt介绍
sbt是一个代码编译工具,是scala界的mvn,可以编译scala,java等,需要java1.6以上。
sbt项目环境建立
sbt编译需要固定的目录格式,并且需要联网,sbt会将依赖的jar包下载到用户home的.ivy2下面,目录结构如下:
- |--build.sbt
- |--lib
- |--project
- |--src
- | |--main
- | | |--scala
- | |--test
- | |--scala
- |--sbt
- |--target
复制代码
以上建立目录如下:
- mkdir -p ~/spark_wordcount/lib
- mkdir -p ~/spark_wordcount/project
- mkdir -p ~/spark_wordcount/src/main/scala
- mkdir -p ~/spark_wordcount/src/test/scala
- mkdir -p ~/spark_wordcount/target
然后拷贝spark安装目录的sbt目录的 sbt脚本和sbt的jar包
- cp /path/to/spark/sbt/sbt* ~/spark_wordcount/
由于spark的sbt脚本默认查找./sbt目录,修改如下
- JAR=sbt/sbt-launch-${SBT_VERSION}.jar
- to
- JAR=sbt-launch-${SBT_VERSION}.jar
拷贝spark的jar包到,sbt的lib目录
- cp /path/to/spark/assembly/target/scala-2.10/spark-assembly_2.10-0.9.0-incubating-hadoop2.2.0.jar \
- > ~/spark_wordcount/lib/
建立build.sbt配置文件,各行需要有一个空行分割
- name := "WordCount"
- [this is bank line]
- version := "1.0.0"
- [this is bank line]
- scalaVersion := "2.10.3"
由于spark的sbt脚本需要到project的build.properties文件找sbt的版本号,我们建立该文件,增加如下内容:
- sbt.version=0.12.4
Spark WordCount程序编写及编译
建立WordCount.scala源文件,假设需要包为spark.example
- mkdir -p ~/spark_wordcount/src/main/scala/spark/example
- vi -p ~/spark_wordcount/src/main/scala/spark/example/WordCount.scala
添加具体的程序代码,并保存
- package spark.example
- import org.apache.spark._
- import SparkContext._
- object WordCount {
- def main(args: Array[String]) {
- //命令行参数个数检查
- if (args.length == 0) {
- System.err.println("Usage: spark.example.WordCount <input> <output>")
- System.exit(1)
- }
- //使用hdfs文件系统
- val hdfsPathRoot = "hdfshost:9000"
- //实例化spark的上下文环境
- val spark = new SparkContext(args(0), "WordCount",
- System.getenv("SPARK_HOME"),SparkContext.jarOfClass(this.getClass))
- //读取输入文件
- val inputFile = spark.textFile(hdfsPathRoot + args(1))
- //执行WordCount计数
- //读取inputFile执行方法flatMap,将每行通过空格分词
- //然后将该词输出该词和计数的一个元组,并初始化计数
- //为 1,然后执行reduceByKey方法,对相同的词计数累
- //加
- val countResult = inputFile.flatMap(line => line.split(" "))
- .map(word => (word, 1))
- .reduceByKey(_ + _)
- //输出WordCount结果到指定目录
- countResult.saveAsTextFile(hdfsPathRoot + args(2))
- }
- }
到spark_wordcount目录,执行编译:
- cd ~/spark_wordcount/
- ./sbt compile
打成jar包
- ./sbt package
编译过程,sbt需要上网下载依赖工具包,jna,scala等。编译完成后可以在target/scala-2.10/目录找到打包好的jar
- [root@bd001 scala-2.10]# pwd
- /usr/local/hadoop/spark_wordcount/target/scala-2.10
- [root@bd001 scala-2.10]# ls
- cache classes wordcount_2.10-1.0.0.jar
WordCount执行
可以参考Spark分布式运行于hadoop的yarn上的方法,写一个执行脚本
- #!/usr/bin/env bash
- SPARK_JAR=./assembly/target/scala-2.10/spark-assembly_2.10-0.9.0-incubating-hadoop2.2.0.jar \
- ./bin/spark-class org.apache.spark.deploy.yarn.Client \
- --jar ~/spark_wordcount/target/scala-2.10/wordcount_2.10-1.0.0.jar \
- --class spark.example.WordCount \
- --args yarn-standalone \
- --args /testWordCount.txt \
- --args /resultWordCount \
- --num-workers 3 \
- --master-memory 4g \
- --worker-memory 2g \
- --worker-cores 2
然后,拷贝一个名为testWordCount.txt的文件进hdfs
- hdfs dfs -copyFromLocal ./testWordCount.txt /testWordCount.txt
然后执行脚本,过一会就可以看到结果了
[转] 用SBT编译Spark的WordCount程序的更多相关文章
- 用SBT编译Spark的WordCount程序
问题导读: 1.什么是sbt? 2.sbt项目环境如何建立? 3.如何使用sbt编译打包scala? sbt介绍 sbt是一个代码编译工具,是scala界的mvn,可以编译scala,java等,需要 ...
- sbt编译spark程序提示value toDF is not a member of Seq()
sbt编译spark程序提示value toDF is not a member of Seq() 前提 使用Scala编写的Spark程序,在sbt编译打包的时候提示value toDF is no ...
- 编写Spark的WordCount程序并提交到集群运行[含scala和java两个版本]
编写Spark的WordCount程序并提交到集群运行[含scala和java两个版本] 1. 开发环境 Jdk 1.7.0_72 Maven 3.2.1 Scala 2.10.6 Spark 1.6 ...
- 使用SBT编译Spark子项目
前言 最近为了解决Spark2.1的Bug,对Spark的源码做了不少修改,需要对修改的代码做编译测试,如果编译整个Spark项目快的话,也得半小时左右,所以基本上是改了哪个子项目就单独对那个项目编译 ...
- window环境下使用sbt编译spark源码
前些天用maven编译打包spark,搞得焦头烂额的,各种错误,层出不穷,想想也是醉了,于是乎,换种方式,使用sbt编译,看看人品如何! 首先,从官网spark官网下载spark源码包,解压出来.我这 ...
- Eclipse+Maven+Scala Project+Spark | 编译并打包wordcount程序
学习用Eclipse+Maven来构建并打包一个简单的单词统计的例程. 本项目源码已托管于Github –>[Spark-wordcount] 第一步 在EclipseIDE中安装Scala插件 ...
- 在IDEA中编写Spark的WordCount程序
1:spark shell仅在测试和验证我们的程序时使用的较多,在生产环境中,通常会在IDE中编制程序,然后打成jar包,然后提交到集群,最常用的是创建一个Maven项目,利用Maven来管理jar包 ...
- spark运行wordcount程序
首先提一下spark rdd的五大核心特性: 1.rdd由一系列的分片组成,比如说128m一片,类似于hadoop中的split2.每一个分区都有一个函数去迭代/运行/计算3.一系列的依赖,比如:rd ...
- Spark开发wordcount程序
1.java版本(spark-2.1.0) package chavin.king; import org.apache.spark.api.java.JavaSparkContext; import ...
随机推荐
- Html5的<button>标签
1.标签是双标签,其内可添加文字,图片等复杂的样式. 2.不仅可以在表单中使用,还可以在其他块元素和内联元素中使用. 3.一般在input标签内添加name属性,否则提交后不显示.
- __call方法简介
作用:当程序试图调用不存在或不可见的成员方法时,PHP会先调用__call方法来储方法名及参数. __call方法包含两个参数:即方法名和方法参数.其中,方法参数是以数组形式存在的.
- 项目知识点.Part3
内存管理: 基本数据类型或者Core Foundation对象都没有引用计数 主线程会自动创建释放池,子线程需要手动创建释放池. 具体的区别:http://www.cnblogs.com/langti ...
- ExtJS 4 Grids 详解
Grid Panel是ExtJS最常用的组件之一,它的功能非常丰富,提供了非常便捷的方法执行排序,分组,编辑数据. Basic Grid Panel 基本表格面板 让我们创建一个简单的表格,这有创建和 ...
- bit、sbin、sfr、sfr16 区别分析
1.bit 和 sbit 都是 C51 扩展的变量类型. bit 和 int char 之类的差不多,只不过 char=8 位, bit=1 位而已.都是变量,编译器在编译过程中分配地址.除非你指定, ...
- 9.DataPager
ListView搭配DataPager控件实现分页.有两种使用方式:一是将DataPager声明到ListView中:一种是DataPager\ListView没有嵌套关系,然后将DataPager的 ...
- 通过redis-rdb-tools分析redis内存使用量
背景:生产上一台redis服务器,物理内存32G,几个项目都在用,经常不足一月内存就会耗尽,然后开始使用swap,当swap也用尽的时候,系统就宕机.redis配置也优化过几次,但未见成效.因此决定看 ...
- Light OJ 1030 - Discovering Gold
题目大意: 给你一个1*N的方格,你初始位置是在1,给你一个骰子,假设你现在的位置是X,你投掷一个骰子掷的点数是y, 那么你的新位置就是 X+y, 并且你可以得到新位置的宝藏.假如X+y > N ...
- 图论(差分约束系统):POJ 1275 Cashier Employment
Cashier Employment Time Limit: 1000MS Memory Limit: 10000K Total Submissions: 7651 Accepted: 288 ...
- [JAVA关键字] static & final
JAVA十分常见的关键字static & final 总的来说final表示常量,即不可更改的:而static表示静态,即全局的 1. final 类:不能被继承 2. final 方法:能被 ...