1.安装VMWare WorkStation,直接下一步,输入激活码即可安装
2.安装linux(需要100GB)
引导分区Boot200MB
交换分区Swap2048MB
其余分配到/
3.配置网络服务
vim /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0TYPE=EthernetONBOOT=yesNM_CONTRolLED=yesBOOTPROTO=staticIPADDR=192.168.118.11NETMASK=255.255.255.0GATEWAY=192.168.118.2DNS1=114.114.114.114DNS2=192.168.118.11
注意点:
1.关于IPADDR的前三个网关,要与虚拟网络编辑器的VMnet8的子网IP的前三个网关一样
2.关于GATEWAY要与NAT下的GATEWAY一样,详情如下
虚拟网络编辑器:在VMWare编辑下打开
点击NAT设置,查看GATEWAY
4.修改主机名称
vi /etc/sysconfig/networkNETWORKING=yesHOSTname=node01
5.设置Host(关于Host,是指IP和主机名的映射关系)
vi /etc/hosts192.168.150.11 node01192.168.150.12 node02
6.关闭防火墙,开机不启动防火墙
service iptables stopchkconfig iptables off
7.关闭selinux(selinux是linux下一种安全模式,打开可能会连不上XShell)
vi /etc/selinux/configSEliNUX=Disabled
8.时间同步
使用yum安装ntp,并把原有的server注释,替换成
server ntp1.aliyun.comservice ntpd startchkconfig ntpd on
9.安装jdk,使用xftp上传rpm文件
jdk-8u181-linux-x64.rpm
修改JAVA_HOME
vi /etc/profile export JAVA_HOME=/usr/java/defaultexport PATH=$PATH:$JAVA_HOME/binsource /etc/profile
10.安装ssh免密
(1)检验ssh是否可以登录
ssh localhost
需要输入密码,则不免密
(2)设置免密
ssh-keygen -t dsa -P ‘‘ -f ~/.ssh/ID_dsacat ~/.ssh/ID_dsa.pub >> ~/.ssh/authorized_keys
ssh-keygen -t dsa表示使用dsa算法加密-p ‘‘表示密码为空-f ~/ .ssh/ID_dsa 将公钥放在/home/.ssh/ID_dsa下
不能自己私自创建目录,关于ssh的目录权限,必须为755或者700,不能是777,否则不能使用免密
11.安装Hadoop
mkdir /opt/bigdatatar xf hadoop-2.6.5.tar.gzmv hadoop-2.6.5 /opt/bigdata/pwd/opt/bigdata/hadoop-2.6.5
设置Hadoop的环境变量
vi /etc/profile export JAVA_HOME=/usr/java/defaultexport HADOOP_HOME=/opt/bigdata/hadoop-2.6.5export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbinsource /etc/profile
12.修改hadoop-env.sh,此文件为hadoop启动脚本,将JAVA_HOME改为具体的环境变量
cd $HADOOP_HOME/etc/hadoopvi hadoop-env.shexport JAVA_HOME=/usr/java/default
13.给出NN角色在哪里启动vi core-site.xml
<property><name>fs.defaultFS</name><value>hdfs://node01:9000</value></property>
14.配置一个hdfs副本
<!-- 副本数量为1 -->
<property><name>dfs.replication</name><value>1</value></property>
<!-- nameNode的路径--><property><name>dfs.namenode.name.dir</name><value>/var/bigdata/hadoop/local/dfs/name</value></property>
<!-- Datanode的路径--><property><name>dfs.datanode.data.dir</name><value>/var/bigdata/hadoop/local/dfs/data</value></property>
<!-- SecondarynameNode在哪个端口启动--><property><name>dfs.namenode.secondary.http-address</name><value>node01:50090</value></property>
<!-- SecondarynameNode的路径--><property><name>dfs.namenode.checkpoint.dir</name><value>/var/bigdata/hadoop/local/dfs/secondary</value></property>
15.配置Slave
vi slavesnode01
16.初始化&启动
hdfs namenode -format
创建目录,并且初始化一个空的fsimage
VERSION CID
start-dfs.sh
17.修改windows: C:\windows\System32\drivers\etc\hosts(注意这边IP要与端口一样)
192.168.150.11 node01192.168.150.12 node02192.168.150.13 node03192.168.150.14 node04
18.简单创建目录
hdfs dfs -mkdir /bigdatahdfs dfs -mkdir -p /user/root
19.HDFS的常见命令
hadoop fs == hdfs dfs命令的执行要在bin目录下例:./hadoop fs -ls /hadoop fs -ls / 查看hadoop fs -lsrhadoop fs -mkdir /user/haodop 创建文件夹hadoop fs -put a.txt /user/hadoop 上传到hdfshadoop fs -get /user/hadoop/a.txt 从hdfs下载hadoop fs -cp src dst 复制hadoop fs -mv src dst 移动hadoop fs -cat /user/hadoop/a.txt 查看文件内容hadoop fs -rm /user/hadoop/a.txt 删除文件hadoop fs -rmr /user/hadoop 删除文件夹hadoop fs -text /user/hadoop/a.txt 查看文件内容hadoop fs -copyFromLocal localsrc dst 与hadoop fs -put功能类似hadoop fs -moveFromLocal localsrc dst 将本地文件上传到hdfs,同时删除本地文件 2、帮助命令查看hadoop帮助命令查看,不需要输入help,只需要在bin目录下输入即可。例:./hadoop ./hadoop fs关于完全分布式的修改
1.建立4台linux主机
2.修改自己的主机名和网关
vim /etc/sysconfig/network-scripts/ifcfg-eth0
IPADDR分配4个不一样的IP
分配4个主机名
vim /etc/sysconfig/network
3.重启网卡
service network restart
4.重启网卡要记住删除文件
rm -f /etc/udev/rules.d/70-persistent-net.rules
5.文件命令
scp xxx node:0x/xx scp是一种远程拷贝
6.`pwd`可以在另一台主机同样位置进行定位
总结以上是内存溢出为你收集整理的Big Data(三)环境的搭建全部内容,希望文章能够帮你解决Big Data(三)环境的搭建所遇到的程序开发问题。
如果觉得内存溢出网站内容还不错,欢迎将内存溢出网站推荐给程序员好友。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)