一.异常现象 启动hadoop时,datanode启动失败,出现如下异常: 2018-03-23 14:39:09,962 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Invalid dfs.datanode.data.dir /ray/hadoop/dfs/data : ExitCodeException exitCode=1: chmod: changing permissions of `/ray/hadoop/dfs/dat…
给passwd文件加权限,修改/etc/fstab目录下所有的文件夹属性为可写可读可执行,执行以下命令:chomd 777 /etc/fstab 的时候提示错误: chmod: changing permissions of ‘/etc/fstab': Read-only file system 解决方法: 产生这个问题的原因是文件系统此时处于只读模式下,/etc/passwd和/etc/shadow不能被修改,运行下面的命令就可以解决这个问题 #mount -rw -o remount / 注…
众所周知,在linux系统中,权限最大的是root账号,但凡修改涉及到系统本身的重大权限的操作,都需要root的权限才能操作.但是有些时候也有root干不了的事情. 比如:chmod: changing permissions of 'authorized_keys': Operation not permitted 问题背景和解决 部署在服务器上的redis缓存数据库被提示有高危风险,根据提出的改进意见,则是修改ssh/下的authorized_keys这个文件夹的权限为所有者只读. 修改文件…
  up vote 2 down vote favorite 1 i use this command to make a bootable flash disk of linux mint sudo dd if=~/Desktop/linuxmint.iso of=/dev/sdx oflag=direct bs=1048576 it's work, but now my flash disk is lock and i can't change file on it now this fil…
在项目开发的时候,经常需要将文件上传到指定的目录下. 例如这次用thinkphp5的时候,需要在public目录下建立uploads目录用于存放上传的资源. 首先在命令窗口下输入: mkdir uploads 当前,前提是当前执行命令的用户需要权限(假设此处有,非root). 问题来了,即使你目录创建成功,对于项目来说并不算成功. 因为项目运行的时候上传文件以及新建目录的时候,可以看出是apache用户. apache对该用户创建的目录并没有写入权限啊! 当然你可以继续输入: 这样,的确apac…
与chmod这个命令相比,chmod只是改变文件的读写.执行权限,更底层的属性控制是由chattr来改变的. lsattr查看文件或目录属性 chattr命令的用法:chattr [ -RVf ] [ -v version ] [ mode ] files…最关键的是在[mode]部分,[mode]部分是由+-=和[ASacDdIijsTtu]这些字符组合的,这部分是用来控制文件的属性. +:在原有参数设定基础上,追加参数.- :在原有参数设定基础上,移除参数.= :更新为指定参数设定.A:文件…
一.异常现象 安装好hadoop之后,执行格式化namenode命令时,抛出以下异常: // :: WARN net.DNS: Unable to determine local hostname -falling back to "localhost" java.net.UnknownHostException: rayner: rayner at java.net.InetAddress.getLocalHost(InetAddress.java:) at org.apache.h…
系统:mac os 10.14.1 重启电脑 mac用户在升级系统之后,电脑启用了SIP(System Integrity Protection),增加了rootless机制,导致即使在root权限下依然无法修改文件,在必要时候为了能够修改下面的文件,我们只能关闭该保护机制 1)重启,过程中按住 command+R,进入保护模式 2)打开terminal终端,输入 csrutil disable 3)再次重启,即可对 usr/bin 目录下文件进行修改 PS:如果要恢复保护机制,重新进入保护模式…
一.环境准备 1.说明 hadoop的下载来源有: 官方版本:http://archive.apache.org/dist/hadoop/ CDH版本:http://archive.cloudera.com/cdh5 企业应用一般选择CDH版本,因为比较稳定. 若决定使用CDH版本,则要保证相关软件的CDH版本相同,如 选择 hadoop-2.6.0-cdh5.9.3  与  hbase-1.2.0-cdh5.9.3 2.环境准备 操作系统 : linux CentOS 6.8 jdk:1.7…
安装步骤: 1) JDK -- Hadoop是用Java写的,不安装Java虚拟机怎么运行Hadoop的程序: 2)创建专门用于运行和执行hadoop任务(比如map和reduce任务)的linux用户,就像windows下的服务账户,并且授权给他可以访问运行JDK目录权限,让他可以执行java虚拟机.这个账户最后用来运行bin\.start_all.sh启动hadoop的所有服务,那运行账户肯定是他了,他肯定要有足够的权限.再者,需要配置这个账户的个人环境变量,把Java虚拟机的主目录地址环境…