今天使用scala 写点spark代码时发现, dataframe.count()
报了这个错。猜测是jar包冲突了。
也在网上找了很多,但只单个方法是没解决。
后面将各位大佬的解决方法结合了起来,完美解决,方法如下:
首先,屏蔽掉hadoop所有的jackson依赖
org.apache.hadoop hadoop-common3.3.1 com.fasterxml.jackson.module *com.fasterxml.jackson.core *
然后,单独引入两个jackson的依赖:
com.fasterxml.jackson.core jackson-core2.10.0 com.fasterxml.jackson.core jackson-databind2.10.0
至此,完美解决
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)