spark-shell和scala错误
运行spark-shell 或者scala命令,出现以下错误:
Welcome to Scala version 2.10.6 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_66).
Type in expressions to have them evaluated.
Type :help for more information.
scala> [init] error: error while loading <root>, error in opening zip file
Failed to initialize compiler: object scala.runtime in compiler mirror not found.
** Note that as of 2.8 scala does not assume use of the java classpath.
** For the old behavior pass -usejavacp to scala, or if using a Settings
** object programatically, settings.usejavacp.value = true.
解决方法:删除下面以点开头的包
cd /usr/lib/jvm/jdk1.8.0_66/jre/lib/ext/
root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# ls -la
total 25676
drwxrwxr-x 2 501 root 4096 Feb 3 15:49 .
drwxrwxr-x 15 501 root 4096 Feb 3 15:49 ..
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._cldrdata.jar
-rwxrwxr-x 1 501 root 3860522 Oct 7 08:36 cldrdata.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._dnsns.jar
-rwxrwxr-x 1 501 root 8286 Oct 7 08:36 dnsns.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._jaccess.jar
-rwxrwxr-x 1 501 root 44516 Oct 7 08:36 jaccess.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 04:00 ._jfxrt.jar
-rwxrwxr-x 1 501 root 18467564 Oct 7 04:00 jfxrt.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._localedata.jar
-rwxrwxr-x 1 501 root 1178935 Oct 7 08:36 localedata.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:37 ._meta-index
-rwxrwxr-x 1 501 root 1269 Oct 7 08:37 meta-index
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._nashorn.jar
-rwxrwxr-x 1 501 root 2015935 Oct 7 08:36 nashorn.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._sunec.jar
-rwxrwxr-x 1 501 root 39771 Oct 7 08:36 sunec.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._sunjce_provider.jar
-rwxrwxr-x 1 501 root 278680 Oct 7 08:36 sunjce_provider.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._sunpkcs11.jar
-rwxrwxr-x 1 501 root 250826 Oct 7 08:36 sunpkcs11.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:36 ._zipfs.jar
-rwxrwxr-x 1 501 root 68849 Oct 7 08:36 zipfs.jar
root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# rm ._*.jar
root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# ls -la
total 25636
drwxrwxr-x 2 501 root 4096 Feb 25 18:01 .
drwxrwxr-x 15 501 root 4096 Feb 3 15:49 ..
-rwxrwxr-x 1 501 root 3860522 Oct 7 08:36 cldrdata.jar
-rwxrwxr-x 1 501 root 8286 Oct 7 08:36 dnsns.jar
-rwxrwxr-x 1 501 root 44516 Oct 7 08:36 jaccess.jar
-rwxrwxr-x 1 501 root 18467564 Oct 7 04:00 jfxrt.jar
-rwxrwxr-x 1 501 root 1178935 Oct 7 08:36 localedata.jar
-rwxrwxr-x 1 501 staff 176 Oct 7 08:37 ._meta-index
-rwxrwxr-x 1 501 root 1269 Oct 7 08:37 meta-index
-rwxrwxr-x 1 501 root 2015935 Oct 7 08:36 nashorn.jar
-rwxrwxr-x 1 501 root 39771 Oct 7 08:36 sunec.jar
-rwxrwxr-x 1 501 root 278680 Oct 7 08:36 sunjce_provider.jar
-rwxrwxr-x 1 501 root 250826 Oct 7 08:36 sunpkcs11.jar
-rwxrwxr-x 1 501 root 68849 Oct 7 08:36 zipfs.jar
root@ha0:/usr/lib/jvm/jdk1.8.0_66/jre/lib/ext# scala
spark-shell和scala错误的更多相关文章
- 在Scala IDEA for Eclipse或IDEA里程序编译实现与在Spark Shell下的对比(其实就是那么一回事)
不多说,直接上干货! 比如,我这里拿主成分分析(PCA). 1.主成分分析(PCA)的概念介绍 主成分分析(PCA) 是一种对数据进行旋转变换的统计学方法,其本质是在线性空间中进行一个基变换,使得变换 ...
- Spark源码分析之Spark Shell(上)
终于开始看Spark源码了,先从最常用的spark-shell脚本开始吧.不要觉得一个启动脚本有什么东东,其实里面还是有很多知识点的.另外,从启动脚本入手,是寻找代码入口最简单的方法,很多开源框架,其 ...
- Spark源码分析之Spark Shell(下)
继上次的Spark-shell脚本源码分析,还剩下后面半段.由于上次涉及了不少shell的基本内容,因此就把trap和stty放在这篇来讲述. 上篇回顾:Spark源码分析之Spark Shell(上 ...
- Spark shell的原理
Spark shell是一个特别适合快速开发Spark原型程序的工具,可以帮助我们熟悉Scala语言.即使你对Scala不熟悉,仍然可以使用这个工具.Spark shell使得用户可以和Spark集群 ...
- Spark:使用Spark Shell的两个示例
Spark:使用Spark Shell的两个示例 Python 行数统计 ** 注意: **使用的是Hadoop的HDFS作为持久层,需要先配置Hadoop 命令行代码 # pyspark >& ...
- [Spark内核] 第36课:TaskScheduler内幕天机解密:Spark shell案例运行日志详解、TaskScheduler和SchedulerBackend、FIFO与FAIR、Task运行时本地性算法详解等
本課主題 通过 Spark-shell 窥探程序运行时的状况 TaskScheduler 与 SchedulerBackend 之间的关系 FIFO 与 FAIR 两种调度模式彻底解密 Task 数据 ...
- 【原创 Hadoop&Spark 动手实践 5】Spark 基础入门,集群搭建以及Spark Shell
Spark 基础入门,集群搭建以及Spark Shell 主要借助Spark基础的PPT,再加上实际的动手操作来加强概念的理解和实践. Spark 安装部署 理论已经了解的差不多了,接下来是实际动手实 ...
- Spark Shell简单使用
基础 Spark的shell作为一个强大的交互式数据分析工具,提供了一个简单的方式学习API.它可以使用Scala(在Java虚拟机上运行现有的Java库的一个很好方式)或Python.在Spark目 ...
- Spark Shell Examples
Spark Shell Example 1 - Process Data from List: scala> val pairs = sc.parallelize( List( ("T ...
- 02、体验Spark shell下RDD编程
02.体验Spark shell下RDD编程 1.Spark RDD介绍 RDD是Resilient Distributed Dataset,中文翻译是弹性分布式数据集.该类是Spark是核心类成员之 ...
随机推荐
- JS识别ios & 安卓
var isAndroid = navigator.userAgent.indexOf('Android') > -1 || navigator.userAgent.indexOf('Adr') ...
- CLR via C# 3rd - 08 - Methods
Kinds of methods Constructors Type constructors Overload operators Type con ...
- throw与throws的区别
throws语句 throws总是出现在一个函数头中,用来标明该成员函数可能抛出的各种异常.对大多数Exception子类来说,Java 编译器会强迫你声明在一个成员函数中抛出的异常的 ...
- PHP代码实用片段
一.黑名单过滤 function is_spam($text, $file, $split = ':', $regex = false){ $handle = fopen($file, 'rb'); ...
- ASP.NET Core (Database First)
CREATE DATABASE [EFCore_dbfirst] GO USE [EFCore_dbfirst] GO CREATE TABLE [Blog] ( [BlogId] int NOT N ...
- 初学JAVA 感想
开始学习任何一门课(包括java),兴趣最重要.一直觉得自己在学计算机编程语言,学习了很多,但每门语言都停留在知识边缘地带,都没深入到它们的精华部分,对它们的精华部分知之甚少,于是趁学校开设这门课,并 ...
- mysql 的max_connections和max_user_connections 的区别
----查看max_user_connections 默认值 MySQL> show variables like 'max_user_connections'; +-------------- ...
- [THINKING IN JAVA]初始化和清理
4.5初始化和清理 5.1 构造器初始化 无参:如果一个类没有构造器,那么会有一个默认的无参构造器,并且只能通过无参构造器初始化对象: 带参:传入参数初始化成员变量或者其它初始化操作需要的参数,如果类 ...
- sql中的跨库查询
在sql查询时,需要关联2个服务器上的不同数据库,只需要在所需查询的表名前加上服务器地址即可. 例如:在 192.168.0.15,8020的db110库 和 192.168.0.150,8082的d ...
- Redis的三种启动方式【转】
Part I. 直接启动 下载 官网下载 安装 tar zxvf redis-2.8.9.tar.gz cd redis-2.8.9 #直接make 编译 make #可使用root用户执行`make ...