1324粉丝

1324粉丝,第1张

1324粉丝

0.配置网络 查看 Vmare 给你的 ip 段 编辑->虚拟网络编辑器->VMnet8->子网 IP 我的是 192.168.140.0,所以可配置的 ip 为 192.168.140.0----192.168.140.255 vi /etc/sysconfig/network-scripts/ifcfg-ens33 BOOTPROTO=dhcp 改为 BOOTPROTO=static onBOOT=no 改为 onBOOT=yes IPADDR=192.168.x.200 GATEWAY=192.168.x.2 NETMASK=255.255.255.0 DNS1=114.114.114.114 保存网络配置并重启网络 service network restart ip addr 可以查看 ip 1.配置 hosts vi /etc/hosts 文末添加 192.168.x.200 master 192.168.x.201 slave1 2.使用 xftp 将 hadoop 与 java 安装包传输到 /opt 目录 3.安装 java 与 解压 hadoop rpm -ivh /opt/jdk-7u67-linux-x64.rpm tar -zxf /opt/hadoop-2.6.5.tar.gz -C /usr/local/ 4.配置环境变量>讓系統知道你裝了這個 vi /etc/profile 在文末添加 export HADOOP_HOME=/usr/local/hadoop-2.6.5/ export JAVA_HOME=/usr/java/jdk1.7.0_67 export JRE_HOME=$JAVA_HOME/jre export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin; export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib source /etc/profile 重新加载配置文件 5.进入 hadoop 核心配置目录 cd /usr/local/hadoop-2.6.5/etc/hadoop 6.配置 hadoop 运行环境 vi hadoop-env.sh 找到 export JAVA_HOME=${JAVA_HOME} 改成->export JAVA_HOME=/usr/java/jdk1.7.0_67 7.配置接口环境 vi core-site.xml hadoop.tmp.dir /opt/data/tmp fs.defaultFS hdfs://master:9000 8.配置 hdfs 配置文件 vi hdfs-site.xml dfs.replication 1 9.配置 datanode vi slaves 修改为 master slave1 10.配置免密登录 公钥 ssh-keygen -t rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys 11.克隆虚拟机 12.修改主机名称 vi /etc/hostname master 或者 slave1 重启后生效 修改 slave1 的 ip 为 192.168.x.201 13.格式化集群 进入主机 master cd $HADOOP_HOME hdfs namenode -format 14.启动集群 sbin/start-dfs.sh 15.关闭防火墙 systemctl stop firewalld.service 16.查看可视化界面 192.168.x.200:50070

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5700114.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存