hadoop作为大数据的基础框架组件,其包括hdfs,mapreduce和yarn三大组件。为了方便开发环境进行本地开发和测试,可以在windows环境搭建hadoop环境。
1. 下载文件http://archive.apache.org/dist/hadoop/core/hadoop-2.7.7/
https://github.com/steveloughran/winutils
fs.defaultFS hdfs://192.168.22.56:9000
这里配置hdfs的端口为9000,也可以根据实际情况,配置为其它的端口。
2.2 修改配置文件hdfs-site.xmldfs.replication 1 dfs.namenode.http-address 192.168.22.56:50070 dfs.namenode.name.dir /D:/sdks/hadoop-2.7.7/data/dfs/namenode dfs.datanode.data.dir /D:/sdks/hadoop-2.7.7/data/dfs/datanode
这里配置的web界面地址为50070,可以通过浏览器在该端口访问hdfs。
2.3 重命名mapred-site.xml.template为mapred-site.xml2.4 修改配置文件yarn-site.xmlmapreduce.framework.name yarn mapred.job.tracker hdfs://192.168.22.56:9001
3. 初始化及启动 3.1 格式化namenode的hdfsyarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.aux-services.mapreduce.shuffle.calss org.apache.hadoop.mapred.ShuffleHandler
hdfs namenode –format3.2 启动所有服务
在sbin目录下找到start-all.cmd并执行
start-all.cmd3.3 查看运行服务
jps D:sdksjdk1.8.0_191bin>jps 37828 QuorumPeerMain 45828 NodeManager 53748 Jps 10168 ResourceManager 42060 NameNode 56156 DataNode3.4 查看Web页面
http://localhost:50070/
这里因为网络更换原因,截图的ip地址有所不同。
http://localhost:8088/
在bin目录下,执行下面的命令。
hadoop fs –mkdir /user hadoop fs –mkdir /user/input4.2 上传文件
hadoop fs –put e:/test.txt /user/input
查看文件内容:
hadoop fs –cat /user/input/test.txt4.3 执行mapreduce任务
hadoop jar D:/sdks/hadoop-2.7.7/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar wordcount /user/input/ /user/output4.4 查看执行结果
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)