hive的配置

hive的配置,第1张

hive的配置

Hive安装的前提:

-安装JDK 1.8.0_181      查看方法 window+r  cmd  进入 输入命令 java -version

-安装 Hadoop-2.4.1     查看方法 Hadoop里面输入命令 Hadoop version

-安装MySQL 5.7.17      登录mysql即可看到版本信息

一安装:

1.下载hive最新稳定版本的包,并压缩到用户主目录下面 :

  • tar  -xzvf apache-hive-2.1.1-bin.tar.gz         //解压
  • mv apache-hive-2.1.1-bin  hive              //改名
  • mv hive /export/software                     //移动文件到你所想要存放的位置

(mv 在 linux中有俩个意思:1重命名 2 移动)

2配置环境变量:

  • vi /etc/profile                                    /编辑profile文件

(保存退出  est   :wq  enter)

  • source /etc/profile                               /使配置生效

3配置文件

  • cd /export/software/hive/conf (看自己的安装目录)    /首先进入hive的conf目录下面
  • ls                                              /查看conf下面的所有的目录
  • cp hive-env.sh.template   hive-env.sh      /将所有有temolate去掉templelate 后缀
  • mv hive-default.xml hive-site.xml           /其中文件hive-default.xml template

去除后缀后改名为hive-site.xml

vi hive-env.sh       (需要指定自己hadoop的安装路径)

vi hive-log4j2.properties

配置下面的2个参数(如果没有logs目录,在hive根目录下创建它)

  • cd /export/software/hive/
  • mkdir logs
  • property.hive.log.dir=/export/software/hive/logs
  • property.hive.log.file=hive.log

  • vi hive-site.xml

(在/export/software/hive下新建一个tmp目录,在tmp/下新建一个hduser目录。)

cd  /export/software/hive

mkdir tmp

mkdir tmp/hduser

vi hive-site.xml

凡是${system:java.io.tmpdir}都替换成:/export/software/hive/tmp

凡是${system:user.name}都替换为hduser

二.配置Hive metastore

默认情况下, Hive的元数据保存在了内嵌的derby数据库里, 但一般情况下生产环境使用MySQL来存放Hive元数据。

  1. 将 mysql-connector-java-5.1.40.jar 放入 $HIVE_HOME/lib 下。(mysql jdbc驱动程序)
    1. hive-site.xml 中配置 MySQL 数据库连接信息

三.为Hive创建HDFS目录

    1. 必须先安装了Hadoop,并配置了HADOOP_HOME环境变量

    2. 在Hive中创建表之前,需要在HDFS上创建目录/tmp/hive和/user/hduser/warehouse,并给它们赋予写权限。

       在HDFS中将它们设为chmod 777,然后才可以在Hive中创建表:

  1. $HADOOP_HOME/bin/hdfs dfs    -mkdir /tmp
  2. $HADOOP_HOME/bin/hdfs dfs    -mkdir/tmp/hive
  3. $HADOOP_HOME/bin/hdfsdfs     -mkdir/user/hduser/warehouse

     //用户组加写权限

     $HADOOP_HOME/bin/hdfs dfs -chmod -R 777   /tmp

     $HADOOP_HOME/bin/hdfs dfs -chmod -R 777   /user/hduser/warehouse

四,运行

  1. 运行Hive CLI:

      在命令行运行hive命令时必须保证HDFS已经启动。可以使用start-dfs.sh来启动HDFS。

(特别说明:从 Hive 2.1 版本开始, 在第一次运行hive之前,需要先运行schematool命令来执行初始化 *** 作。)

schematool -initSchema -dbType derby

// 如果是使用MySQL数据库:schematool -initSchema -dbType mysql

执行成功后,可以查看MySQL中元数据库hive是否已经创建成功。

// 进入hive命令行:$HIVE_HOME/bin/hive

// 使用 show tables 来显示所有的表: hive> show tables;

// 退出hive  hive> quit;

   

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5635822.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-16
下一篇 2022-12-16

发表评论

登录后才能评论

评论列表(0条)

保存