hadoop综合大作业

hadoop综合大作业,第1张

hadoop综合大作业

这一次大作业通过对MapReduce的运用实践,将MapReduce调用对文件中每一个单词出现的次数来统计。在安装Ubuntu中,实现hadoop,java环境的安装与配置,同时安装jdk,配置ssh,帮Ubuntu后续的配置提供环境,后打开eclipse编码实现HDFS文件的输送,关键的是在创建好成功mapreduce程序前,需要将 /usr/local/hadoop/etc/hadoop 中将有修改过的配置文件(如伪分布式需要 core-site.xml 和 hdfs-site.xml)。复制到Wordcount项目的src文件夹,最后在实现文件的下载至本地

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/5688301.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存