这一次大作业通过对MapReduce的运用实践,将MapReduce调用对文件中每一个单词出现的次数来统计。在安装Ubuntu中,实现hadoop,java环境的安装与配置,同时安装jdk,配置ssh,帮Ubuntu后续的配置提供环境,后打开eclipse编码实现HDFS文件的输送,关键的是在创建好成功mapreduce程序前,需要将 /usr/local/hadoop/etc/hadoop 中将有修改过的配置文件(如伪分布式需要 core-site.xml 和 hdfs-site.xml)。复制到Wordcount项目的src文件夹,最后在实现文件的下载至本地
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)