今天用eclipse构建基于maven的spark+hbase工程(scala语言)的项目时,在eclipse中运行成功,打包也成功但是在spark本地运行时报了这样的错误
原因是因为有些包调用错误,所以导致无法加载HBASE配置文件
【解决方法】
HADOOP配置文件里加入HBase lib路径
hadoop-env.sh在$HADOOP_CLASSPATH/etc/hadoop下
vi hadoop-env.sh
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/(hbase路径)/lib/*
就可以解决问题了!!!
jar包不需要再去eclipse中打包一次,用之前打包好的重新运行一遍就好了。。。
参考链接:java.lang.NoClassDefFoundError:/HBaseConfiguration - 知乎 (zhihu.com)https://zhuanlan.zhihu.com/p/74467337
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)