hadoop shell运行的时候不会报这个错误,因为我已经重新在64位机上编译了源文件,并把so文件复制到hadoop的native目录下,而且环境变量也设置正确了,所以hadoop本身没有问题. 但在启动spark相关的shell时就会报这个问题. 经过查找,发现知乎上有人问了这个问题,我尝试照回答操作了,问题解决. 主要是jre目录下缺少了libhadoop.so和libsnappy.so两个文件.具体是,spark-shell依赖的是scala,scala 依赖的是JAVA_HOME下的…