Linux中hadoop 单机_伪分布_安装与配置

Linux中hadoop 单机_伪分布_安装与配置,第1张

概述步骤一:创建 hadoop 用户,并为 hadoop 用户授权 (1) 在一个新的Linux系统CentOS-7-x86_64-DVD-1708.iso中,开始用户是root不是hadoop用户是,那么需要增加一名为Hadoop的用户。执行下面命令查看hadoop用户是否存在。 $cat   /etc/passwd |grep  hadoop (2) 如果 hadoop 用户不存在则创建 hado

步骤一:创建 hadoop 用户,并为 hadoop 用户授权

(1) 在一个新的linux系统CentOS-7-x86_64-DVD-1708.iso中,开始用户是root不是hadoop用户是,那么需要增加一名为Hadoop的用户。执行下面命令查看hadoop用户是否存在。

$cat   /etc/passwd |grep  hadoop

(2) 如果 hadoop 用户不存在则创建 hadoop 用户,则继续执行(3),如果 hadoop 用户存在则执行步骤(4)。

(3) 创建用户 hadoop。(若系统没有sudo此命令,则 yum install net-tools 安装)

$sudo useradd -m hadoop -s /bin/bash

(4)设置密码为 hadoop(密码不回显)

$sudo passwd hadoop

(5)为 hadoop 用户授予 sudo 权限。(为hadoop用户授权会出现错误:hadoop is not in the sudoers file. This incIDent will be reported. :解决方法点击此链接:https://blog.csdn.net/haijIEge/article/details/79630187 )

$sudo adduser hadoop sudo

(6)重启计算机,以 hadoop 用户登录。

$reboot

步骤二:修改集群节点名称,添加域名映射。

(1)将节点名称写入/etc/hostname 文件中。

$sudo vi  /etc/hostnames 

(2)将节点的 IP 地址与主机名写入/etc/hosts 中,完成域名映射的添加。

$sudo vi /etc/hosts 

例如: 172.17.67.10 master

如图配置完成:

 

 

 

(3)重新启动计算机。

$reboot

步骤三:SSH 登录权限设置

(1)在节点上安装 SSH。

查看ssh的安装包 :rpm -qa | grep ssh
查看ssh是否安装成功 :ps -ef | grep ssh

 

下图安装好的:

 

 

 

 

 

 未安装则输入命令:

$sudo apt-get install openssh-server

(2)在节点上生成公钥和私钥。

$ssh-keygen –t rsa (命令输入后等待自动完成)

在~/目录下自动创建目录.ssh,内部创建 ID_rsa(私钥)、ID_rsa.pub(公钥)、 authorized_keys 文件。

(3)将节点的公钥发送到 .ssh/authorized_keys 文件中。

$cd ~/.ssh $cat ./ID_rsa.pub >> ./authorized_keys

(4)测试 SSH 免密码登录。(暂时还需输入密码登录)

$ssh localhost

 

 

测试成功后,可以执行 exit 命令结束远程登录。

步骤四:安装 Java 环境

(1)在目录/usr/lib 中创建 jvm 目录,并将目录所有者修改为 hadoop 用户。

$sudo mkdir /usr/lib/jvm/ $sudo chown –R hadoop:hadoop /usr/lib/jvm

(2)使用tar命令解压安装jdk-8u121-linux-x64.tar.gz文件到目录/usr/lib/jvm。

$cd ~/  (进入jdk安装包目录进行解压)

$sudo tar zxvf jdk-8u121-linux-x64.tar.gz -C /usr/lib/jvm/

(3)配置 JDK 环境变量,使其生效。

①使用 vi 命令打开用户的配置文件.bashrc。

$sudo vi ~/.bashrc

②在文件中加入下列内容:

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_121

export JRE_HOME=$JAVA_HOME/jre

export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH

export CLAsspATH=$CLAsspATH:.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib

③使环境变量生效,并验证 JDK 是否安装成功。

$ source ~/.bashrc #生效环境变量

$ java –version #如果打印出 java 版本信息,则成功

 

 步骤五:伪分布式集群安装配置

(1)使用 tar 命令解压安装 hadoop-2.7.3.tar.gz 文件到目录/usr/local,并重命 名为 hadoop。

$cd ~/ #进入 hadoop-2.7.3.tar.gz 文件所在目录

$sudo tar -zxvf hadoop-2.7.3.tar.gz -C /usr/local

$cd /usr/local #进入/usr/local 查看解压结果

$ls #解压后目录名为 hadoop-2.7.3 $sudo mv ./hadoop-2.7.3 ./hadoop #为简化 *** 作,文件夹重命名为 hadoop (2)将目录/usr/local/hadoop 的所有者修改为 hadoop 用户。

$ sudo chown -R hadoop:hadoop /usr/local/hadoop

(3)修改环境变量,并使其生效。

①修改环境变量

$sudo vi ~/.bashrc #打开用户配置文件 在用户配置文件.bashrc 中写入下列 hadoop 配置信息。

export HADOOP_HOME=/usr/local/hadoop

export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop

export YARN_HOME=/usr/local/hadoop

export YARN_CONF_DIR=${YARN_HOME}/etc/hadoop

② 生效环境变量 $source ~/.bashrc

(4)配置 Hadoop 文件 伪分布环境中,伪分布式需要修改下列 4 个配置文件。

$cd /usr/local/hadoop/etc/hadoop

$vi filename(文件)

①hadoop-env.sh 中配置 JAVA_HOME

export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_121

②yarn-env.sh 中配置

JAVA_HOME export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_121

③修改 core-site.xml 文件。

 

 

 

 

④修改 hdfs-site.xml 文件。

 

 

 

 

 

(5)格式化 nameNode 节点。

$cd /usr/local/hadoop

$bin/hdfs namenode -format

注意:若格式化之后,重新修改了配置文件,那么需要重新格式化 *** 作,在 此之前需要删除 tmp、dfs、logs 文件夹。

(8)启动 Hadoop 服务

$cd /usr/local/hadoop

$bin/start-dfs.sh

$bin/start-yarn.sh

(9)验证是否安装成功。

① 执行 jps 命令查看服务

$sbin/start-all.sh 命令可用于启动整个hadoop服务

 

 

更详细转载:https://www.cnblogs.com/hopelee/p/7049819.HTML

总结

以上是内存溢出为你收集整理的Linux中hadoop 单机_伪分布_安装与配置全部内容,希望文章能够帮你解决Linux中hadoop 单机_伪分布_安装与配置所遇到的程序开发问题。

如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/1022854.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-05-23
下一篇 2022-05-23

发表评论

登录后才能评论

评论列表(0条)

保存