Spark编译安装和运行
一、环境说明
Mac OSX Java 1.7.0_71 Spark
二、编译安装
tar -zxvf spark-.tgz cd spark- ./sbt/sbt assembly
ps:如果之前执行过编译,需要执行 ./sbt/sbt clean
清理后才能重新编译。
三、运行
adeMacBook-Pro:spark- apple$ ./bin/spark-shell log4j:WARN No appenders could be found for logger (org.apache.hadoop.metrics2.lib.MutableMetricsFactory). log4j:WARN Please initialize the log4j system properly. log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info. Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties // :: INFO SecurityManager: Changing view acls to: apple // :: INFO SecurityManager: Changing modify acls to: apple // :: INFO SecurityManager: SecurityManager: authentication disabled; ui acls disabled; users with view permissions: Set(apple); users with modify permissions: Set(apple) // :: INFO HttpServer: Starting HTTP Server // :: INFO Server: jetty-.y.z-SNAPSHOT // :: INFO AbstractConnector: Started SocketConnector@ // :: INFO Utils: Successfully started service . Welcome to ____ __ / __/__ ___ _____/ /__ _\ \/ _ \/ _ `/ __/ '_/ /___/ .__/\_,_/_/ /_/\_\ version /_/ Using Scala version (Java HotSpot(TM) -Bit Server VM, Java 1.7.0_71) Type in expressions to have them evaluated. Type :help for more information. // :: INFO SparkContext: Running Spark version // :: INFO SecurityManager: Changing view acls to: apple // :: INFO SecurityManager: Changing modify acls to: apple // :: INFO SecurityManager: SecurityManager: authentication disabled; ui acls disabled; users with view permissions: Set(apple); users with modify permissions: Set(apple) // :: INFO Slf4jLogger: Slf4jLogger started // :: INFO Remoting: Starting remoting // :: INFO Remoting: Remoting started; listening on addresses :[akka.tcp://sparkDriver@192.168.1.106:61567] // :: INFO Utils: Successfully started service . // :: INFO SparkEnv: Registering MapOutputTracker // :: INFO SparkEnv: Registering BlockManagerMaster // :: INFO DiskBlockManager: Created local directory at /-4d54-89f3-8d97bf15205f/blockmgr-b8410cda-aa29---d6155512cd53 // :: INFO MemoryStore: MemoryStore started with capacity 265.4 MB // :: INFO HttpFileServer: HTTP File server directory -4d54-89f3-8d97bf15205f/httpd-a1838f08-2ccd-42d2--6e91cb6fdfad // :: INFO HttpServer: Starting HTTP Server // :: INFO Server: jetty-.y.z-SNAPSHOT // :: INFO AbstractConnector: Started SocketConnector@ // :: INFO Utils: Successfully started service . // :: INFO SparkEnv: Registering OutputCommitCoordinator // :: INFO Server: jetty-.y.z-SNAPSHOT // :: INFO AbstractConnector: Started SelectChannelConnector@ // :: INFO Utils: Successfully started service . // :: INFO SparkUI: Started SparkUI at http://192.168.1.106:4040 // :: INFO Executor: Starting executor ID driver on host localhost // :: INFO Executor: Using REPL class URI: http://192.168.1.106:61566 // :: INFO Utils: Successfully started service . // :: INFO NettyBlockTransferService: Server created on // :: INFO BlockManagerMaster: Trying to register BlockManager // :: INFO BlockManagerMasterEndpoint: Registering block manager localhost: with ) // :: INFO BlockManagerMaster: Registered BlockManager // :: INFO SparkILoop: Created spark context.. Spark context available as sc. // :: INFO SparkILoop: Created sql context.. SQL context available as sqlContext. scala>
参考:
https://spark.apache.org/docs/latest/
三、使用spark交互模式
. 运行./spark-shell.sh . scala> val data = Array(, , , , ) //产生data data: Array[Int] = Array(, , , , ) . scala> val distData = sc.parallelize(data) //将data处理成RDD distData: spark.RDD[Int] = spark.ParallelCollection@7a0ec850 (显示出的类型为RDD) . scala> distData.reduce(_+_) //在RDD上进行运算,对data里面元素进行加和 // :: INFO spark.SparkContext: Starting job... . 最后运行得到 // :: INFO spark.SparkContext: Job finished in 0.076729174 s res2: Int =
Spark编译安装和运行的更多相关文章
- Heka 编译安装后 运行报错 panic: runtime error: cgo argument has Go pointer to Go pointer
Heka 编译安装后 运行报错 panic: runtime error: cgo argument has Go pointer to Go pointer 解决办法: 1. Start heka ...
- Spark入门实战系列--2.Spark编译与部署(下)--Spark编译安装
[注]该系列文章以及使用到安装包/测试数据 可以在<倾情大奉送--Spark入门实战系列>获取 .编译Spark .时间不一样,SBT是白天编译,Maven是深夜进行的,获取依赖包速度不同 ...
- spark编译安装 spark 2.1.0 hadoop2.6.0-cdh5.7.0
1.准备: centos 6.5 jdk 1.7 Java SE安装包下载地址:http://www.oracle.com/technetwork/java/javase/downloads/java ...
- Ubuntu16.04下编译安装及运行单目ORBSLAM2
官网有源代码和配置教程,地址是 https://github.com/raulmur/ORB_SLAM2 1 安装必要工具 首先,有两个工具是需要提前安装的.即cmake和Git. sudo apt- ...
- spark下载安装,运行examples(spark一)
1.官方网址 http://spark.apache.org/ image.png 2.点击下载 下载最新版本目前是(2.4.3)此spark预设为hadoop2.7或者更高版本,我前面安装的是had ...
- 基于cdh5.10.x hadoop版本的apache源码编译安装spark
参考文档:http://spark.apache.org/docs/1.6.0/building-spark.html spark安装需要选择源码编译方式进行安装部署,cdh5.10.0提供默认的二进 ...
- Spark入门实战系列--2.Spark编译与部署(上)--基础环境搭建
[注] 1.该系列文章以及使用到安装包/测试数据 可以在<倾情大奉送--Spark入门实战系列>获取: 2.Spark编译与部署将以CentOS 64位操作系统为基础,主要是考虑到实际应用 ...
- Spark编译与部署
Spark入门实战系列--2.Spark编译与部署(上)--基础环境搭建 [注] 1.该系列文章以及使用到安装包/测试数据 可以在<倾情大奉送--Spark入门实战系列>获取: 2.S ...
- MySQL编译安装
1.准备工作 其官方站点为http://www.mysql.com/ 为了避免发生端口冲突.程序冲突现象.建议先查询MySQL软件的安装情况,确认没有使用以RPM方式安装的mysql-server.m ...
随机推荐
- spring事务学习(转账案例)(二)
四.通过springAop进行事务管理 继续从第一个无事务操作的项目中进行更改. 只修改applicationContext.xml配置文件,注意设置transaction引用 <?xml ve ...
- linux经典命令学习
本文介绍Linux系统的若干经典命令的常用方法. (一)grep 主要用于搜索文件内容,查看是否跟要求的pattern相匹配. 1.grep -l 'boss' * 显示所有包含boss ...
- aop注解
注解 xml的直接配置 <aop:config proxy-target-class="false"> //切入点 <aop:pointcut expressio ...
- C++_Eigen函数库用法笔记——Advanced Initialization
The comma initializer a simple example join and block initialize join two row vectors together ini ...
- object-c(oc)内存管理机制详解
1.内存的创建和释放 让我们以Object-c世界中最最简单的申请内存方式展开,谈谈关于一个对象的生命周期.首先创建一个对象: 1 2 3 //“ClassName”是任何你想写的类名,比如NSStr ...
- Java JNI 编程进阶 实例+c++数据类型与jni数据类型转换
原文:http://www.iteye.com/topic/295776 JNI一直以来都很少去关注,但却是我心中的一个结,最近这几天刚好手头有点时间,因此抽空看了一下这方面的东西,整理了一份文档,J ...
- derby数据库ql语法
[数据库知识] 主键.唯一键包含索引 主键包含唯一键.索引.非空 唯一键包含索引,可空或非空 数据库需要与执行服务的在同个目录下 唯一键 create table app.tyu ( primaryk ...
- linux 查找php.ini 文件
sudo find /* -name 'php.ini' /etc/php5/fpm/php.ini
- tyvj3481 越狱
描述 监狱有连续编号为1...N的N个房间,每个房间关押一个犯人,有M种宗教,每个犯人可能信仰其中一种.如果相信房间的犯人的宗教相同,就可能发生越狱,求有多少种状态可能发生越狱 输入格式 输入两个整数 ...
- 安卓(Android)手机如何安装APK?
我大天朝的安卓手机只能在一个被阉割的APP市场里玩耍,有些APP可能需要直接安装APK文件.APK 是 Android Package (安卓安装包)安卓手机如何安装APK呢? 在电脑上下载安装APK ...