hadoop在搭建环境中遇到一个权限问题是为什么

hadoop在搭建环境中遇到一个权限问题是为什么,第1张

这个命令需要执行账号具备super权限

在Hadoop simple认证模式下, hadoop将执行任务的Linux账号名字 直接映射为执行任务的 账号名。你这里应该用的是Linux的slave101 账号执行的命令?

可以在配置文件 中,配置dfs.permissions.superusergroup,将其 设置为某个 组名(这个组名在Linux机器的账号体系中存在), 比如,设置为root,然后在namenode所在的机器上执行usermod -g root slave101。

Hadoop使用Linux的GroupMapping进行 用户组判断, 会将slave101识别成root组的, 因为dfs.permissions.superusergroup配成了root,所以slave101就能 具备超级 权限,能完成 超级用户才可进行的 *** 作。

1、下载JDK 到官网去下载。

        tar  -zxf  jdkXXXX.tar.gz 解压到指定的文件夹。最好是进入到该文件夹下,运行该命令 。

2、配置JDK的环境变量。

     运行   vim   ~/.bashrc  打开该文件,在末尾增加:

     export JAVA_HOME="/opt/SoftBasic/jdk1.7.0_45"

     export JAVA_JRE="/opt/SoftBasic/jdk1.7.0_45/jre"

     export HADOOP_HOME="/opt/SoftHadoopRelate/hadoop-1.2.1"

     export PATH="$HADOOP_HOME/bin:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$PATH"

     export CLASSPATH=".:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH"

 注意:如果是在终端输入上述命令会临时起效,但重启后回复为设置之前的状态。关于环境变量的设置有很多地方, 可自己百度下。这个是在当前的用户下,比如就在/home/llcode目录下。

3、下载hadoop-1.2.1 果断去官网。

       解压就不说了。同上

       1》 安装 openssh-server:$ sudo apt-get install openssh-server 当然需要联网。

       2》建立 ssh 无密码登录

            在 NameNode 上实现无密码登录本机:            $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa ,

            直接回车,完成后会在~/.ssh/生成两个文件:id_dsa 和 id_dsa.pub。这两个是成对出现,类似钥匙和锁。再把 id_dsa.pub 追加到授权 key 里面(当前并没有 authorized_keys

            文件):$ cat ~/.ssh/id_dsa.pub >>~/.ssh/authorized_keys。完成后可以实现无密码登录本机:$ ssh localhost。

       3》关闭防火墙

            $ sudo ufw disable

          注意:这步非常重要。如果不关闭,会出现找不到 datanode 问题。

       4》配置 hadoop

           hadoop 的主要配置都在 hadoop-1.2.1/conf 下

          1》修改hadoop-env.sh

         vim  hadoop-env.sh

          修改该文件的        : export JAVA_HOME="/opt/SoftBasic/jdk1.7.0_45"    你的JDK的安装目录。

         2》修改配置 conf/core-site.xml, conf/hdfs-site.xml 及 conf/mapred-site.xml

         core-site.xml:

        <configuration>

        <!--- global properties -->

        <property>

             <name>hadoop.tmp.dir</name>

             <value>/home/hexianghui/tmp</value><!--你的Hadoop临时目录-->

             <description>A base for other temporary directories.</description>

        </property>

        <!-- file system properties -->

        <property>

            <name>fs.default.name</name>

            <value>hdfs://127.0.0.1:9000</value>

        </property>

        </configuration>

        hdfs-site.xml:( replication 默认为 3,如果不修改,datanode 少于三台就会报错)

        <configuration>

        <property>

            <name>dfs.replication</name>

            <value>1</value>

        </property>

        </configuration>

        mapred-site.xml:

        <configuration>

        <property>

            <name>mapred.job.tracker</name>

            <value>127.0.0.1:9001</value>

        </property>

        </configuration>

           3》格式化文件系统:$ hadoop namenode –format      启动 Hadoop:$ start-all.sh。

 注意问题来了:

          运行start-all.sh出现无法建立文件夹等错误。显示权限不够。我采用的是使当前用户拥有root权限。

         命令:su  root 切换到root用户,第一次执行会要求输入密码,输入两次后完成即可。

          然后修改 /etc/suders文件。执行:vim /etc/sudoers   

         找到         # User privilege specification

                         root    ALL=(ALL:ALL) ALL

         在这一行下面添加下面一行,使其具有root的权限。当然也不是那么顺利,你会发现这个文件不会让你修改它。怎么办?

                         llcode    ALL=(ALL:ALL) ALL

总体的流程就是:

        1 修改/etc/sudoers文件,进入超级用户,因为没有写权限,所以要先把写权限加上chmod u+w /etc/sudoers。

        2 编辑/etc/sudoers文件,找到这一 行:"root ALL=(ALL) ALL"在起下面添加"zhc ALL=(ALL) ALL"(这里的zhc是    你的用户名),然后保存。

        3 最后恢复没有写权限模式,撤销文件的写权限,chmod u-w /etc/sudoers。这样你自此打开该文件,就是ReadOnly 了。

        

       4、这时候测试 start-all.sh 还是说权限不够,不能创建文件夹,无法访问 ...........................的。

            要确保所有的 *** 作都是在用户llcode下完成的:

           命令: sudo chown -R llcode:llcode  /opt/SoftHadoopRelate/hadoop-1.2.1(安装目录)

        5 、终于OK了。

        运行后的结果:jps后

        22280 NameNode

        22828 JobTracker

        22504 DataNode

        26972 Jps

        23055 TaskTracker

        22742 SecondaryNameNode

参考地址:http://blog.sina.com.cn/s/blog_61ef49250100uvab.html

                  http://my.oschina.net/hetiangui/blog/142897

                  http://www.hx95.com/Article/Tech/201306/70946.html

权限与linux的权限设计一致,修改权限,移除权限都是常规 *** 作。主要是创建目录,文件的默认权限。

hdfs创建的目录权限由umask、父目录权限决定

hadoop的umask 与linux的umask类似,umask-mode值为022,默认为创建文件夹为755对应rwxr-xr-x,文件为644对应rw-r--r--

针对上述问题,设置为000则为777

根据hadoop集群版本,如果是3.x 以前只能通过client的 umask决定,无法通过父目继承

hdfs dfs 命令参考链接

默认继承父目录权限


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/8045193.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-12
下一篇 2023-04-12

发表评论

登录后才能评论

评论列表(0条)

保存