I----

1---jdk and scala install

****zyp@ubuntu:~/Desktop/software$ tar xvf jdk-7u67-linux-i586.tar.gz



****vim ~/.bashrc (vim /etc/profile false)

# # JAVA_HOME 2015.12.18 binary x64 or i386(uname -a)

112 export JAVA_HOME=/usr/lib/jvm/jdk1.7_586

113 export JRE_HOME=$JAVA_HOME/jre

114 export PATH=$JAVA_HOME/bin:$PATH

115 #export CLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib

116 

117 # SCALA_HOME 2015.12.18

118 export SCALA_HOME=/usr/lib/jvm/scala-2.10.4

119 export PATH=$PATH:$SCALA_HOME/bin



****source /etc/profile

****java -version

****scals -version



--tar tgz  http://www.scala-lang.org/files/archive/    or  http://www.scala-lang.org/files/archive/scala-2.10.4.tgz



2---spark install



using spark-1.1.0-bin-hadoop1.tgz

https://spark.apache.org/downloads.html

https://spark.apache.org/examples.html





****/usr/lib/jvm/spark-1.1.0-bin-hadoop1$ ./bin/spark-shell   --start the spark and http://localhost:4040

****Welcome to

      ____              __

           / __/__  ___ _____/ /__

               _\ \/ _ \/ _ `/ __/  '_/

                  /___/ .__/\_,_/_/ /_/\_\   version 1.1.0

                        /_/



16/01/07 01:20:08 INFO Utils: Successfully started service 'HTTP file server' on port 38690.

16/01/07 01:20:14 INFO Utils: Successfully started service 'SparkUI' on port 4040.

16/01/07 01:20:14 INFO SparkUI: Started SparkUI at http://ubuntu.local:4040 or http://192.168.174.129:4040/stages/

16/01/07 01:20:14 INFO Executor: Using REPL class URI: http://192.168.174.129:43766

16/01/07 01:20:14 INFO AkkaUtils: Connecting to HeartbeatReceiver: akka.tcp://sparkDriver@ubuntu.local:59425/user/HeartbeatReceiver

16/01/07 01:20:14 INFO SparkILoop: Created spark context..

Spark context available as sc

****scala> sc

res0: org.apache.spark.SparkContext = org.apache.spark.SparkContext@118c6de

****scala> val inFile = sc.textFile("README.md")

16/01/07 01:42:25 WARN SizeEstimator: Failed to check whether UseCompressedOops is set; assuming yes

16/01/07 01:42:25 INFO MemoryStore: ensureFreeSpace(31447) called with curMem=0, maxMem=280248975

16/01/07 01:42:25 INFO MemoryStore: Block broadcast_0 stored as values in memory (estimated size 30.7 KB, free 267.2 MB)

inFile: org.apache.spark.rdd.RDD[String] = README.md MappedRDD[1] at textFile at <console>:12

****scala> val sparks = inFile.filter(line=>line.contains("Spark"))

sparks: org.apache.spark.rdd.RDD[String] = FilteredRDD[2] at filter at <console>:14

****scala> sparks.count

****scala> exit(1)

end 

****awk '{if(match($0,"SPARK"))} {print}' README.md | wc -l

****cat README.md | grep -rn "spark"

3---- run error***  zyp@ubuntu:/usr/lib/jvm/scala-2.10.4/bin$ scalac

/usr/lib/jvm/scala-2.10.4/bin/scalac: line 23: java: command not found

---HelloWorld for scala

****$  scalac Demo.scala

zyp@ubuntu:/usr/lib/jvm/code/demo_scala$ scalac -encoding gbk Demo.scala

****$  scalac SampleDemo.scala

zyp@ubuntu:/usr/lib/jvm/code/demo_scala$ scalac -encoding gbk SampleDemo.scala

****$  scala SampleDemo

zyp@ubuntu:/usr/lib/jvm/code/demo_scala$ scala SampleDemo



4---demo_ssc

import org.apache.spark._

import org.apache.spark.streaming._

import org.apache.spark.streaming.StreamingContext._

// //这里指在本地执行。2个线程。一个监听,一个处理数据

val conf = new SparkConf().setAppName("NetworkWordCount").setMaster("local[2]")

//// Create the context

val ssc = new StreamingContext(conf, Seconds(20))

val lines = ssc.textFileStream("README.md")

val words = lines.flatMap(_.split(" "))

val wordCounts = words.map(x => (x, 1)).reduceByKey(_ + _)

wordCounts.print()

wordCounts.saveAsTextFile("zyp.txt")

words.count

println("****Hello Scala! Welcome to my Zoon")

ssc.start()

ssc.awaitTermination()

II---- linux 下更改文件胡权限肯用户以及用户组

使用chown命令能够改动文件或文件夹所属的用户:

命令:chown 用户 文件夹或文件名称

比如:chown qq /home/qq  (把home文件夹下的qq文件夹的拥有者改为qq用户) 



使用chgrp命令能够改动文件或文件夹所属的组:

 命令:chgrp 组 文件夹或文件名称

 比如:chgrp qq /home/qq  (把home文件夹下的qq文件夹的所属组改为qq组)



III---- python 读取zip压缩文件



#!/usr/bin/python

#coding=utf-8



import zipfile

z = zipfile.ZipFile("test.zip", "r") ##tarfile.TarFile()

#打印zip文件里的文件列表

for filename in z.namelist():

    print 'File:', filename



#读取zip文件里的第一个文件

first_file_name = z.namelist()[1]

content = z.read(first_file_name)

print first_file_name

print content

IV 相关链接

1-- https://spark.apache.org/examples.html

2-- http://spark.apache.org/docs/latest/  --- Spark API ****http://spark.apache.org/docs/latest/streaming-programming-guide.html#initializing-streamingcontext

3-- http://www.scala-lang.org/  ---- Scala API ***

4-- SparkStream 使用

5-- http://www.sxt.cn/info-2730-u-756.html

6-- Spark 执行与配置

7-- Spark RDD API具体解释(一)
Map和Reduce
 ****

8-- Spark入门实战系列--7.Spark
Streaming(下)--实时流计算Spark Streaming实战
 **

10-- http://maven.apache.org/guides/getting-started/  Maven
Getting Started Guide
http://maven.apache.org/plugins/    ./plugins/maven-compiler-plugin/  ./plugins/maven-deploy-plugin/


spark安装与调试的更多相关文章

  1. 01、Spark安装与配置

    01.Spark安装与配置 1.hadoop回顾 Hadoop是分布式计算引擎,含有四大模块,common.hdfs.mapreduce和yarn. 2.并发和并行 并发通常指针对单个节点的应对多个请 ...

  2. Spark应用远程调试

    本来想用Eclipse的.然而在网上找了一圈,发现大家都在说IntelliJ怎样怎样好.我也受到了鼓励,遂决定在这台破机器上鼓捣一次IntelliJ吧. Spark程序远程调试,就是将本地IDE连接到 ...

  3. Spark 安装部署与快速上手

    Spark 介绍 核心概念 Spark 是 UC Berkeley AMP lab 开发的一个集群计算的框架,类似于 Hadoop,但有很多的区别. 最大的优化是让计算任务的中间结果可以存储在内存中, ...

  4. Hive on Spark安装配置详解(都是坑啊)

    个人主页:http://www.linbingdong.com 简书地址:http://www.jianshu.com/p/a7f75b868568 简介 本文主要记录如何安装配置Hive on Sp ...

  5. Spark学习(一) -- Spark安装及简介

    标签(空格分隔): Spark 学习中的知识点:函数式编程.泛型编程.面向对象.并行编程. 任何工具的产生都会涉及这几个问题: 现实问题是什么? 理论模型的提出. 工程实现. 思考: 数据规模达到一台 ...

  6. Windows Service 开发,安装与调试

    Visual Studio.net 2010 Windows Service 开发,安装与调试 本示例完成一个每隔一分钟向C:\log.txt文件写入一条记录为例,讲述一个Windows Servic ...

  7. ubuntu14.04下nodejs + npm + bower的安装、调试和部署

      1. 简介 本文介绍ubuntu14.04下nodejs+npm+bower的安装.调试和部署 参考文档 https://docs.npmjs.com/getting-started https: ...

  8. Windows环境中Openfire与Spark安装与配置指南

    安装软件: openfire3.9.3 spark2.6.3 安装环境: WindowsXP JDK1.6.0_21 Oracle 一.openfire安装 1.安装openfire3.9.3,下载地 ...

  9. postgresql编译安装与调试(二)

    接前文postgresql编译安装与调试(一),继续说说postgresql的编译安装与调试. 上一篇已经详细说明了如何在Linux系统上编译安装postgresql,这次我们在此基础上简单讲讲如何在 ...

随机推荐

  1. ssh-agent && 及 ssh-add介绍

    ssh-agent命令是一种控制用来保存公钥身份验证所使用的私钥的程序.ssh-agent在X会话或登录会话之初启动,所有其他窗口或程序则以客户端程序的身份启动并加入到ssh-agent程序中.通过使 ...

  2. pgrep---以名称为依据从运行进程队列中查找进程

    pgrep命令以名称为依据从运行进程队列中查找进程,并显示查找到的进程id.每一个进程ID以一个十进制数表示,通过一个分割字符串和下一个ID分开,默认的分割字符串是一个新行.对于每个属性选项,用户可以 ...

  3. 今日SGU 5.10

    SGU 168 题意:从a矩阵求出b矩阵,规则直接看题目就行了,不好打字说明 收获:dp #include<bits/stdc++.h> #define de(x) cout<< ...

  4. wpf--------------datagrid全选反选 多选进行删除操作 前后台

    前台绑定 <DataGrid.Columns> <DataGridTemplateColumn > <DataGridTemplateColumn.HeaderTempl ...

  5. 给Linux设置SSH登录邮件提醒

    给Linux设置SSH登录邮件提醒 心血来潮,用 last 命令查看了登录记录,不看不知道,一看就有问题.竟然有两个陌生的IP ,一个是美国欧莱雅的,一个是北京联通的.真是郁闷,密码简单了真不行 后来 ...

  6. STL中向量vector笔记

    vector的本质是:数组的封装 特点:读取能在常数时间内完成 Vector成员函数 函数 表述 c.assign(beg,end) c.assign(n,elem) 将[beg; end)区间中的数 ...

  7. webservie授权调用

    Dim usercode As String = System.Configuration.ConfigurationSettings.AppSettings("SAPWebServiceU ...

  8. 开源性能测试工具——jemeter介绍+安装说明

    一. Apache JMeter介绍 1. Apache JMeter是什么 Apache JMeter 是Apache组织的开放源代码项目,是一个100%纯Java桌面应用,用于压力测试和性能测量. ...

  9. JS学习笔记 - Try / Catch / Finally

    <body> <p>请输入 5 和 10 之间的一个数:</p> <input id="demo" type="text&quo ...

  10. enq: TX - row lock contention故障处理一则

    一个非常easy的问题,之所以让我对这个问题进行总结.一是由于没我想象的简单,在处理的过程中遇到了一些磕磕碰碰,甚至绕了一些弯路.二是引发了我对故障处理时的一些思考. 6月19日,下午5点左右.数据库 ...