Linkis安装,java实现分页技术详解

Linkis安装,java实现分页技术详解,第1张

Linkis安装,java实现分页技术详解

# 上传驱动包mysql-connector-java-8.0.18.jar 到服务器/usr/share/java目录

sudo mkdir -p

【一线大厂Java面试题解析+后端开发学习笔记+最新架构讲解视频+实战项目源码讲义】

浏览器打开:qq.cn.hn/FTf 免费领取

/usr/share/java

3、安装Python


安装依赖环境

yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel gdbm-devel db4-devel libpcap-devel xz-devel

下载Python

cd /opt

# 官网查看新版本 下载新版

wget https://www.python.org/ftp/python/3.7.1/Python-3.7.1.tgz

# 安装在/usr/local/python3

mkdir -p /usr/local/python3

# 解压下载好的Python-3.x.x.tgz包

tar -zxvf Python-3.7.1.tgz

# 编译安装前需要安装编译器 安装gcc

yum install gcc

# 3.7版本之后需要一个新的包libffi-devel

yum install libffi-devel -y

# 进入python文件夹,生成编译脚本(指定安装目录)

cd Python-3.7.1

./configure --prefix=/usr/local/python3

# 编译

make

# 编译成功后,编译安装

make install

# 检查python3.7的编译器

/usr/local/python3/bin/python3.7

# 建立Python3和pip3的软链

ln -s /usr/local/python3/bin/python3 /usr/bin/python3

ln -s /usr/local/python3/bin/pip3 /usr/bin/pip3

# 并将/usr/local/python3/bin加入PATH

vim /etc/profile

##########################################

# vim ~/.bash_profile

# .bash_profile

# Get the aliases and functions

if [ -f ~/.bashrc ]; then

. ~/.bashrc

fi

# User specific environment and startup programs

PATH= P A T H : PATH: PATH:HOME/bin:/usr/local/python3/bin

export PATH

############################################

# 执行行下面的命令,让上一步的修改生效

source ~/.bash_profile

# 检查Python3及pip3是否正常可用:

python3 -V

pip3 -V

4 创建部署⽤户


创建⼀个⽤于linkis部署的⽤户并做免密,这⾥不再累述,咱们直接使⽤hadoop⽤户即可,前⾯已经做过免密了。

5 每个安装节点新增如下环境变量


export JAVA_HOME=/usr/local/jdk

export HADOOP_HOME=/usr/hdp/current/hadoop-client

export HADOOP_CONF_DIR=/etc/hadoop/conf

export HIVE_HOME=/usr/hdp/current/hive-client

export HIVE_CONF_DIR=/etc/hive/conf

export SPARK_HOME=/usr/hdp/current/spark2-client

export SPARK_CONF_DIR=/etc/spark2/conf

### Pyspark必须加的参数

export PYSPARK_ALLOW_INSECURE_GATEWAY=1

4、安装matplotlib


如果您的Pyspark想拥有画图功能,则还需在所有安装节点,安装画图模块。命令如下

python3 -m pip install matplotlib

如果没有安装pip需要先安装pip

curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py

python3 get-pip.py

5、创建本地⼯作⽬录


1mkdir -p /tmp/linkis/hadoop

6、安装包准备


上传并解压缩安装包到指定⽬录:

mkdir linkis

cd linkis

mv …/…/wedatasphere-linkis-0.9.3-dist.tar.gz .

tar -zxvf wedatasphere-linkis-0.9.3-dist.tar.gz

修改基础配置

vi conf/config.sh

#指定SSH端⼝,如果单机版本安装可以不配置

SSH_PORT=22

#指定部署⽤户

deployUser=hadoop

# 指定安装⽬录

linkIS_INSTALL_HOME=/linkis

# 指定⽤户根⽬录,⼀般⽤于存储⽤户的脚本⽂件和⽇志⽂件等,是⽤户的⼯作空间。(3.2.1.6 创建本

地⼯作⽬录)

WORKSPACE_USER_ROOT_PATH=file:///linkis/hadoop

HDFS_USER_ROOT_PATH=hdfs:///tmp/linkis # 指定⽤户的HDFS根⽬录,⼀般⽤于存储Job的结果集⽂件

# 如果您想配合scriptis⼀起使⽤,CDH版的Hive,还需要配置如下参数(社区版Hive可忽略该配置)

## Provide the DB information of Hive metadata database.

HIVE_meta_URL=jdbc:mysql://ambari-01/hive   # Hivemeta元数据库的URL

HIVE_meta_USER=hive                        # Hivemeta元数据库的⽤户

HIVE_meta_PASSWORD=hive%123                # Hivemeta元数据库的密码

# 配置hadoop/hive/spark的配置⽬录

###HADOOP CONF DIR

HADOOP_CONF_DIR=/etc/hadoop/conf #hadoop的conf⽬录

###HIVE CONF DIR

HIVE_CONF_DIR=/etc/hive/conf     #hive的conf⽬录

###SPARK CONF DIR

SPARK_CONF_DIR=/etc/spark/conf #spark的conf⽬录

修改数据库配置

vi conf/db.sh

# 设置数据库的连接信息

# 包括IP地址、数据库名称、⽤户名、端⼝

# 主要⽤于存储⽤户的⾃定义变量、配置参数、UDF和⼩函数,以及提供JobHistory的底层存储

MYSQL_HOST=node01

MYSQL_PORT=3306

MYSQL_DB=linkis

MYSQL_USER=linkis

MYSQL_PASSWORD=linkis%123

7、安装


执⾏安装脚本

sh bin/install.sh

安装步骤

  • install.sh脚本会询问您安装模式。安装模式就是精简模式、简单模式或标准模式,请根据您准备的环境情况,选择合适的安装模式

  • install.sh脚本会询问您是否需要初始化数据库并导⼊元数据。因为担⼼⽤户重复执⾏install.sh脚本,把数据库中的⽤户数据清空,所以在install.sh执⾏时,会

询问⽤户是否需要初始化数据库并导⼊元数据。第⼀次安装必须选是

是否安装成功

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/5437423.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-11
下一篇 2022-12-11

发表评论

登录后才能评论

评论列表(0条)

保存