master充当着NameNode的角色,其他的salve充当着DataNode的角色,并且在这5台虚拟机上我都修改了hosts文件,配置了他们的主机名他们可以通过主机名进行互相的访问。
配置完成 wq 保存退出。
加入 export PATH=$PATH:/usr/local/hadoop-2.7.3/bin:/usr/local/hadoop-2.7.3/sbin
输入命令:hadoop
如果出现以下内容 Hadoop环境就配置成功了
在我的master机器上也就是我192.168.56.101这台机器,这台机器将会成为我的Hadoop集群NameNode节点。
进入master这台机器的的根目录
出现提示可以不理会 直接按几次回车键就行了,出现以下界面说明生成私钥id_rsa和公钥id_rsa.pub
把生成的公钥id发送到 slave1、slave2、slave3、slave4机器上
slave1会要求你输入slave1这台机器上的密码
密码输入正确后你会看到以下界面,它说已经添加了密钥,它叫你尝试登陆一下
输入命令SSH免密登陆到slave1
你发现你已经从master不用输入密码登陆到slave1上了
添加其他的slave2、slave3、slave4 也是同样的 *** 作。
在所有有的机器上的上core-site.xml、和hdfs-site.xml 文件
修改core-site.xml,在configuration标签内加入以下配置
修改hdfs-site.xml,在configuration标签内加入以下配置
创建文件夹Hadoop存放数据的文件夹
mkdir /home/hadoopData
master主机是我的NameNode节点,所以我在我的master主机上 *** 作,也就是192.168.56.101这台主机。
在master主机的Hadoop目录下修改slaves文件,加入DataNode的节点
注意!注意!注意!
在我hosts文件中已经绑定了域名所以可以直接通过主机的名字访问(不明白看本文章中的节点的介绍)
slave1、slave2、slave3、slave4都是DataNode的节点我把它们加入到我的NanmeNode节点中
这样我就可以一个命令启动整个集群。
在我master这台主机上 输入命令HDFS格式化命令
输入启动HDFS系统命令
检查是否启动成功
在游览器中输入 :http://192.168.56.101:50070/
默认 你NameNode的IP+50070端口
当你见到以下界面说明你的集群已经起来了
再检查DataNode
我这里配了4个DataNode也起来了 说明整个HDFS集群搭建完成了!
1、首先在A中添加写入hdfs的事件。2、其次经过观察,商品详情页在info.html,找到加入购物车按钮,发现点击按钮出发了一个事件。
3、最后找到这个事件,埋点数据加入点击写入hdfs的函数。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)