产生问题原因:

环境hadoop2,cdh5创建
使用hadoop fs -mdkir /use/xxx创建文件路径时,出现权限问题

前提我们已经把当前用户zhangsan和root放到/etc/suders中。

su root

vi /etc/sudoers
root ALL=(ALL) ALL
zhangsan ALL=(ALL) NOPASSWD:ALL su zhangsan
[zhangsan@cdh107 ~]$ hadoop fs -ls /user
Found items
drwxrwxrwx - mapred hadoop -- : /user/history
drwxrwxr-t - hive hive -- : /user/hive
drwxrwxr-x - hue hue -- : /user/hue
drwxrwxr-x - impala impala -- : /user/impala
drwxrwxr-x - oozie oozie -- : /user/oozie
drwxr-x--x - spark spark -- : /user/spark
drwxrwxr-x - sqoop2 sqoop -- : /user/sqoop2

创建目录/user/zhangsan抛出异常:

[zhangsan@cdh107 ~]$ hadoop fs -mkdir /user/wangyou
mkdir: Permission denied: user=zhangsan, access=WRITE, inode="/user":hdfs:supergroup:drwxr-xr-x
[zhangsan@cdh107 ~]$ sudo hadoop fs -mkdir /user/wangyou
mkdir: Permission denied: user=root, access=WRITE, inode="/user":hdfs:supergroup:drwxr-xr-x

解决步骤:

1.查看/user目录的用户和用户组

[zhangsan@cdh107 ~]$ hadoop fs -ls /
Found items
drwxr-xr-x - hbase hbase -- : /hbase
drwxrwxrwt - hdfs supergroup -- : /tmp
drwxr-xr-x - hdfs supergroup -- : /user

备注:从上边可以看出我们想在/user路径下创建用户,但是/user路径的用户是hdfs,用户组是supergroup,当我们使用zhangsan或者root时提示创建失败,因此我们要修改创建/user/wangyou的用户。

2.使用hdfs这个用户登录来创建目录/user/wangyou

[zhangsan@cdh107 ~]$ sudo -uhdfs hadoop fs -mkdir /user/wangyou
[zhangsan@cdh107 ~]$ hadoop fs -ls /user
Found items
drwxr-xr-x - hdfs supergroup -- : /user/wangyou
drwxrwxrwx - mapred hadoop -- : /user/history
drwxrwxr-t - hive hive -- : /user/hive
drwxrwxr-x - hue hue -- : /user/hue
drwxrwxr-x - impala impala -- : /user/impala
drwxrwxr-x - oozie oozie -- : /user/oozie
drwxr-x--x - spark spark -- : /user/spark
drwxrwxr-x - sqoop2 sqoop -- : /user/sqoop2

3.通过hdfs用户更改所在用户的权限

[zhangsan@cdh107 ~]$ sudo -uhdfs hadoop fs -chown zhangsan:zhangsan /user/wangyou
[zhangsan@cdh107 ~]$ hadoop fs -ls /user
Found items
drwxr-xr-x - zhangsan zhangsan -- : /user/wangyou
drwxrwxrwx - mapred hadoop -- : /user/history
drwxrwxr-t - hive hive -- : /user/hive
drwxrwxr-x - hue hue -- : /user/hue
drwxrwxr-x - impala impala -- : /user/impala
drwxrwxr-x - oozie oozie -- : /user/oozie
drwxr-x--x - spark spark -- : /user/spark
drwxrwxr-x - sqoop2 sqoop -- : /user/sqoop2

如果spark2-shell出现这个错误,如何解决参考《问题解决:Permission denied: user=root, access=WRITE, inode="/user":hdfs:supergroup:drwxr-xr-x

CDH:cdh5环境mkdir: Permission denied: user=root, access=WRITE, inode="/user":hdfs:hadoop:drwxr-xr-x的更多相关文章

  1. kylin cube测试时,报错:org.apache.hadoop.security.AccessControlException: Permission denied: user=root, access=WRITE, inode="/user":hdfs:supergroup:drwxr-xr-x

    异常: org.apache.hadoop.security.AccessControlException: Permission denied: user=root, access=WRITE, i ...

  2. Sqoop import加载HBase过程中,遇到Permission denied: user=root, access=WRITE, inode="/user":hdfs:supergroup:drwxr-xr-x

    在执行hbase sqoop抽取的时候,遇到了一个错误,如下图: 在执行程序的过程中,遇到权限问题很正常,也容易让人防不胜防,有问题就想办法解决,这个是关键. 解决办法如下: 第一步:su hdfs, ...

  3. hadoop 权限错误 Permission denied: user=root, access=WRITE, inode="/":hdfs:super

    关于不能执行Hadoop命令 并报权限问题执行错误1.Permission denied: user=root, access=WRITE, inode="/":hdfs:supe ...

  4. 不同用户操作hadoop,Permission denied: user=root, access=WRITE, inode="/user"

    关于不能执行Hadoop命令 并报权限问题执行错误1.Permission denied: user=root, access=WRITE, inode="/":hdfs:supe ...

  5. 报错:HDFS IO error org.apache.hadoop.security.AccessControlException: Permission denied: user=root, access=WRITE, inode="/yk/dl/alarm_his":hdfs:supergroup:drwxr-xr-x

    报错背景: CDH集成了Flume服务,准备通过Flume将kafka中的数据放到HDFS中, 启动Flume的时候报错. 报错现象: // :: INFO hdfs.HDFSDataStream: ...

  6. Permission denied: user=root, access=WRITE, inode="/":hdfs:supergroup:drwxr-xr-x

    通过手动安装CDH没权限 [root@slave1 ~]# groupadd supergroup[root@slave1 ~]# hadoop fs -mkdir /tao3^C[root@slav ...

  7. Permission denied: user=root, access=WRITE, inode="/":hadoopuser:supergroup:drwxr-xr-x

    提示往HDFS写文件是不容许的. 在conf/hdfs-site.xml中加入: <property> <name>dfs.permissions</name> & ...

  8. hive之权限问题AccessControlException Permission denied: user=root, access=WR

    问题描述:在集群上,用hive分析数据出现如下错误 FAILED: Execution Error, return code from org.apache.hadoop.hive.ql.exec.D ...

  9. 一脸懵逼加从入门到绝望学习hadoop之 org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException): Permission denied: user=Administrator, access=WRITE, inode="/":root:supergroup:drwxr-xr报错

    1:初学hadoop遇到各种错误,这里贴一下,方便以后脑补吧,报错如下: 主要是在window环境下面搞hadoop,而hadoop部署在linux操作系统上面:出现这个错误是权限的问题,操作hado ...

随机推荐

  1. springMVC源码分析--页面跳转RedirectView(三)

    之前两篇博客springMVC源码分析--视图View(一)和springMVC源码分析--视图AbstractView和InternalResourceView(二)中我们已经简单的介绍了View相 ...

  2. 使用siege执行压力测试

    没有安装siege? 可参考我的另一篇博客 使用siege执行压力测试笔记 场景分析 使用siege对https://www.baidu.com/进行加压. 要求 模拟20个用户同时访问 一共跑3个循 ...

  3. windows 系统常用操作

    1.所有端口使用情况 netstat -ano 2.查询xxxx端口pid netstat -aon|findstr "xxxx" 3.根据端口Pid查详情 tasklist|fi ...

  4. Redis 5.0 集群搭建

    Redis 5.0 集群搭建 单机版的 Redis 搭建 https://www.jianshu.com/p/b68e68bbd725 /usr/local/目录 mkdir redis-cluste ...

  5. ERP合同列表页面自动导航(三十二)

    合同审核完成页面: <%@ Page Language="C#" AutoEventWireup="true" CodeBehind="CRMC ...

  6. CentOS 7命令行安装GNOME、KDE图形界面

    https://www.linuxidc.com/Linux/2018-04/152000.htm

  7. POJ 3421 X-factor Chains (因式分解+排列组合)

    题意:一条整数链,要求相邻两数前一个整除后一个.给出链尾的数,求链的最大长度以及满足最大长度的不同链的数量. 类型:因式分解+排列组合 算法:因式分解的素因子个数即为链长,链中后一个数等于前一个数乘以 ...

  8. binlog和redo log日志提交

    组提交(group commit)是MYSQL处理日志的一种优化方式,主要为了解决写日志时频繁刷磁盘的问题.组提交伴随着MYSQL的发展不断优化,从最初只支持redo log 组提交,到目前5.6官方 ...

  9. ORA-01427: 单行子查询返回多个行

    有人问题我一个问题,情况如下:他要用根据divide_act_channel_day的new_amount字段去更新divide_stat的new_amount字段.两张表关联的条件:day=log_ ...

  10. k8s 关键字以及管理流程。

    一.流程图如下 二.用户通过kubectl提交需要运行的docker container(pod). 三.api server把请求存储在etcd里面. 四.scheduler(调度)扫描,分配机器. ...