Hadoop安装

Hadoop安装,第1张

Hadoop安装

CentOS镜像:
下载地址

虚拟机改名字hostnamectl set-hostname master

reboot重启虚拟机命令

用ip addr查看ip地址

安装上传文件得到rz指令:yum install lrzsz -y

解压jdk命令: tar -zxvf 解压包名称
mv jdk1.8.0_202/ jdk1.8改jdk名字
配置jdk环境vi /etc/profile

export JAVA_HOME=/usr/local/soft/jdk1.8
export PATH=.:$JAVA_HOME/bin:$PATH

然后执行命令:source /etc/profile

检验jdk是否安装成功:java -version

克隆2个虚拟机(完整克隆)

链接xshell(记住用户名和密码)

解压hadoop

命令:tar -zxvf 解压包名称

直接关闭防火墙

systemctl stop firewalld
systemctl status firewalld
systemctl disable firewalld

免密登录 ssh-keygen -t rsa

vi /etc/hosts写IP之间的映射

192.168.44.129 master
192.168.44.130 node1
192.168.44.131 node2

将密钥拷贝到其他两个子节点,命令如下:

ssh-copy-id -i node1
ssh-copy-id -i node2

实现主节点master本地免密码登录

首先进入到/root 命令:cd /root
再进入进入到 ./.ssh目录下
然后将公钥写入本地执行命令:cat ./id_rsa.pub >> ./authorized_keys

将hosts文件拷贝到node1和node2节点

命令:
scp /etc/hosts node1:/etc/hosts
scp /etc/hosts node2:/etc/hosts
cd /usr/local/soft

* 修改hadoop-env.sh文件

export JAVA_HOME=/usr/local/soft/jdk1.8
export JAVA_HOME=${JAVA_HOME}

***修改 core-site.xml

将下面的配置参数加入进去修改成对应自己的

fs.defaultFShdfs://master:9000hadoop.tmp.dir/usr/local/soft/hadoop-2.7.7/tmpfs.trash.interval1440


修改 hdfs-site.xml 将dfs.replication设置为1

  dfs.replication1

  

  dfs.permissionsfalse

  

文件yarn-site.xml



yarn.resourcemanager.hostname

master





yarn.nodemanager.aux-services

mapreduce_shuffle





yarn.log-aggregation-enable

true





yarn.log-aggregation.retain-seconds

604800



  

  yarn.nodemanager.resource.memory-mb  

  20480  

  

  

  yarn.scheduler.minimum-allocation-mb  

  2048  

  

  

 yarn.nodemanager.vmem-pmem-ratio  

 2.1  

  


**修改 mapred-site.xml(将map red-site.xml.template 复制一份为 mapred-site.xml

命令:cp mapred-site.xml.template mapred-site.xml

  
mapreduce.framework.name
yarn

  
mapreduce.jobhistory.address  
master:10020  
  
  
mapreduce.jobhistory.webapp.address  
master:19888  


,将hadoop的安装目录分别拷贝到其他子节点

 scp -r /usr/local/soft/hadoop-2.7.7  node1:/usr/local/soft/
 scp -r /usr/local/soft/hadoop-2.7.7  node2:/usr/local/soft/

启动hadoop

首先看下hadoop-2.7.7目录下有没有tmp文件夹。

如果没有 执行一次格式化命令:

cd  /usr/local/soft/hadoop-2.7.7目录下

执行命令:

./bin/hdfs namenode -format

会生成tmp文件。

然后在/usr/local/soft/hadoop-2.7.7目录下

 启动执行:./sbin/start-all.sh

关闭hadoop

关闭虚拟机shutdown

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/5636446.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-16
下一篇 2022-12-16

发表评论

登录后才能评论

评论列表(0条)

保存