本文重点介绍下如何在 Zeppelin 里高效的开发 PyFlink Job,特别是解决 PyFlink 的环境问题。
大家都知道PyFlink 的开发环境不容易搭建,稍有不慎,PyFlink 环境就会乱掉,而且很难排查原因
本文使用miniconda、conda-pack、mamba分别制作JobManager 上的 PyFlink Conda 环境、TaskManager 上的 PyFlink Conda 环境,然后在 Zeppelin 里使用 PyFlink 以及指定 Conda 环境,这样就可以在一个 Yarn 集群里同时使用多个版本的 PyFlink。
本文使用环境:flink 1.13.2, zeppelin:0.10.0-bin-all
需要改进的地方:
需要创建 2 个 conda env ,原因是 Zeppelin 支持 tar.gz 格式,而 Flink 只支持 zip 格式apache-flink 目前包含了 Flink 的 jar 包,导致打出来的 conda env 特别大(500MB以上),yarn container 在初始化的时候耗时会比较长,这个需要 Flink 社区提供一个轻量级的 Python 包 (不包含 Flink jar 包),就可以大大减小 conda env 的大小。 1. 搭建 PyFlink 环境 1.1.制作 JobManager 上的 PyFlink Conda 环境
注意dependencies所列的第三方包是在 PyFlink 客户端 (JobManager) 需要的包,比如 Matplotlib ,并且确保至少安装了所列的这些包:jupyter,grpcio,protobuf 是Zeppelin 需要的apache-flink 指定flink的版本
echo "name: pyflink_env channels: - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/msys2/ dependencies: - Python=3.7 - pip - pip: - apache-flink==1.13.2 - jupyter - grpcio - protobuf - matplotlib - pandasql - pandas - scipy - seaborn - plotnine " > pyflink_env.yml mamba env remove -n pyflink_env mamba env create -f pyflink_env.yml rm -rf pyflink_env.tar.gz conda pack --ignore-missing-files -n pyflink_env -o pyflink_env.tar.gz hadoop fs -rmr /tmp/pyflink_env.tar.gz hadoop fs -put pyflink_env.tar.gz /tmp # The Python conda tar should be public accessible, so need to change permission here. hadoop fs -chmod 644 /tmp/pyflink_env.tar.gz1.2.制作 TaskManager 上的 PyFlink Conda 环境
echo "name: pyflink_tm_env channels: - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/msys2/ dependencies: - Python=3.7 - pip - pip: - apache-flink==1.13.2 - pandas " > pyflink_tm_env.yml mamba env remove -n pyflink_tm_env mamba env create -f pyflink_tm_env.yml rm -rf pyflink_tm_env.zip conda pack --ignore-missing-files --zip-symlinks -n pyflink_tm_env -o pyflink_tm_env.zip hadoop fs -rmr /tmp/pyflink_tm_env.zip hadoop fs -put pyflink_tm_env.zip /tmp # The Python conda tar should be public accessible, so need to change permission here. hadoop fs -chmod 644 /tmp/pyflink_tm_env.zip1.3.安装本地的flink
下载 flink 1.13并解压,然后:
把 opt目录下的flink-python-*.jar 这个 jar 包 copy 到flink 的 lib 文件夹下;把 opt/python 这个文件夹 copy 到flink 的 lib 文件夹下。 1.4. 在 PyFlink 中使用 Conda 环境
在 Zeppelin 里配置 Flink,主要配置的选项有:
flink.execution.mode 为 yarn-application, 本文所讲的方法只适用于 yarn-application 模式;指定 yarn.ship-archives,zeppelin.pyflink.Python 以及 zeppelin.interpreter.conda.env.name 来配置 JobManager 侧的 PyFlink Conda 环境;指定 Python.archives 以及 Python.executable 来指定 TaskManager 侧的 PyFlink Conda 环境;指定其他可选的 Flink 配置,比如这里的 flink.jm.memory 和 flink.tm.memory。
Flink_HOME /data/flink/flink-1.13.2 HADOOP_CONF_DIR /etc/hadoop/conf HIVE_CONF_DIR /etc/hive/conf flink.execution.mode yarn-application zeppelin.pyflink.python python yarn.ship-archives /data/flink/pyflink_env.tar.gz zeppelin.interpreter.conda.env.name pyflink_env.tar.gz zeppelin.pyflink.Python pyflink_env.tar.gz/bin/python Python.archives hdfs://172.25.21.170:8020/tmp/pyflink_tm_env.zip Python.executable pyflink_tm_env.zip/bin/python3.7 flink.jm.memory 2048 flink.tm.memory 2048 zeppelin.interpreter.connect.timeout 6000001.5. 使用示例
%flink.ipyflink %matplotlib inline import matplotlib.pyplot as plt plt.plot([1,2,3,4]) plt.ylabel('numbers') plt.show() %flink.ipyflink import time class PandasVersion(ScalarFunction): def eval(self,s): import pandas as pd return pd.__version__ + " " + s bt_env.register_funtion("pandas_version",udf(PandasVersion(),DataTypes.STRING,DataTypes.STRING) %bsql select pandas_version('hello world')附录 准备conda环境
在centos 7.x上安装miniconda
安装minicondaminiconda是一个免费的conda最小安装程序。
它是Anaconda的一个小型的引导版本,只包含conda、Python、它们所依赖的包,以及少量其他有用的包,包括pip、zlib和其他一些包
根据实际需要,下载对应的版本,latest表示最新的python版本,是python3.9.5
Miniconda3-py37_4.10.3-Linux64.shMiniconda3-py38_4.10.3-Linux-x86_64.shMiniconda3-py39_4.10.3-Linux-x86_64.sh
# 下载软件包 curl -O https://mirrors.tuna.tsinghua.edu.cn/anaconda/miniconda/Miniconda3-latest-Linux-x86_64.sh # 安装:按照指示输入一次回车,接受协议,遇到选择yes,然后就安装好了 bash Miniconda3-latest-Linux-x86_64.sh检查环境配置
检查是否在文件尾添加如下内容 vi /root/.bashrc加载环境变量 source /root/.bashrc
# >>> conda initialize >>> # !! Contents within this block are managed by 'conda init' !! __conda_setup="$('/data/flink/miniconda3/bin/conda' 'shell.bash' 'hook' 2> /dev/null)" if [ $? -eq 0 ]; then eval "$__conda_setup" else if [ -f "/data/flink/miniconda3/etc/profile.d/conda.sh" ]; then . "/data/flink/miniconda3/etc/profile.d/conda.sh" else export PATH="/data/flink/miniconda3/bin:$PATH" fi fi unset __conda_setup # <<< conda initialize <<<修改镜像地址
将镜像地址修改为国内源
通过如下命令检查配置
conda config --show 或 conda info
命令行方式
conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/ conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/msys2/ conda config --set show_channel_urls yes
修改文件方式
vim ~/.condarc
default_channels: - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/msys2/ show_channel_urls: true channels: - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/ - https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/msys2/安装conda-pack
conda-pack是一个命令行工具,用于创建conda环境的存档文件【archives 】,这些存档文件可以安装在其他系统上,这对于在一致的环境中部署代码非常有用。
安装conda install -c conda-forge conda-pack
使用conda pack进行环境迁移# 创建pyhon环境 conda create -n py3.7 python=3.7 conda activate py3.7 conda deactivate # 查看运行环境列表 conda info -e # 针对py3.7运行环境打包 conda pack --n-threads=`nproc` -n py3.7 # 还原环境:将py3.7.tar.gz上传到其它服务器并解压 mkdir /home/test/miniconda3/envs/py3.7 tar -zxvf /tmp/py3.7.tar.gz -C /home/test/miniconda3/envs/py3.7 # 查看运行环境列表 conda info -e # 激活运行环境 conda activate py3.7mamba安装
mamba是c++中conda包管理器的重新实现,可以认为是更高级的conda。
有以下特点
使用多线程并行下载repository 数据和包文件,实现更高效的安装libsolv可以更快地解决依赖关系,libsolv是Red Hat、Fedora和OpenSUSE的RPM包管理器中使用的最新库mamba的核心部分是用c++实现的,以获得最大的效率
与此同时,mamba利用了相同的命令行解析器、包安装和卸载代码以及事务验证例程,以尽可能保持与conda的兼容性。
安装conda install mamba -n base -c conda-forge
额外功能查找软件包
mamba repoquery search "pandas>0.20.3"查看软件包的依赖(已安装软件包)
mamba repoquery depends --tree six查看软件包被谁依赖
mamba repoquery whoneeds openssl
切换pip镜像源
切换pip镜像源,加速软件包【如flink】的安装
创建或修改~/.pip/pip.conf文件
pip.conf文件的内容如下:
[global] timeout = 6000 index-url = http://mirrors.aliyun.com/pypi/simple/ [install] use-mirrors =true mirrors =http://mirrors.aliyun.com/pypi/simple/ trusted-host =mirrors.aliyun.com参考链接
Centos 安装 Miniconda
miniconda
conda-pack
mamba
Anaconda、Jupyter的安装部署及使用问题总结
python–切换pip镜像源,加速软件包的安装
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)