HDFS入门

HDFS入门,第1张

HDFS入门

HDFS入门
【实验要求】

    安装配置好jdk;构建Maven环境;Eclipse中使用Maven构建HDFS API;
    【实验目的】了解HDFS文件系统;掌握HDFS的架构及核心组件的职能;掌握HDFS数据的读写流程;HDFS常用 *** 作(Shell/Java API);了解Hadoop2.0中HDFS相关的新特性。
    实验环境Hadoop集群。Windows环境。
    实验内容与完成情况
    项目一 HDFS入门
    任务一 Eclipse中使用Maven构建HDFS API。
    1.验证,在cmd输入mvn -v。

2.在D盘下创建MyWorks文件夹,从cmd中进入到D盘下的MyWorks文件夹中,然后用Maven创建一个标准化的Java项目。

3.通过DOS进入刚才所构建的项目目录内部执行:(cd myHadoop)->执行mvn clean install。

4.启动Eclipse,导入刚才创建的项目。

5.修改项目下的pom.xml,增加Hadoop依赖。

6.再次执行mvn clean install。

7.从Hadoop集群中下载以下三个配置文件:core-site.xml,hdfs-site.xml,mapred-site.xml。

8.启动hadoop集群



    修改hdfs-site.xml文件,在之间添加如下内容并上传至Hadoop集群。

10.修改配置本地host—在C:WindowsSystem32driversetc。在修改时会d出权限不足的错误,需进行如下 *** 作:选中host,右击点击属性,选择安全,点击编辑,完全控制勾选允许。

11.添加系统环境变量HADOOP_USER_NAME,值为admin(登录Hadoop用户)

12.core-site.xml中的fs.defaultFS值

13.修改系统登录用户名为Hadoop的登录用户名:admin,更改完成后需重启电脑,用户名才能生效

4.在Hadoop集群中修改hdfs的用户权限:hadoop fs -chmod 777 /

5.编辑App.Java

6.运行结果

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/5705285.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-17
下一篇 2022-12-17

发表评论

登录后才能评论

评论列表(0条)

保存