问题描述:
使用Flink读取Hudi表一周前还是可以正常读的,现在运行报:
java.lang.ArrayIndexOutOfBoundsException
at org.apache.hudi.table.format.cow.ParquetSplitReaderUtil.lambda$genPartColumnarRowReader$0(ParquetSplitReaderUtil.java:97)
at java.util.stream.IntPipeline$4$1.accept(IntPipeLine.java:250)
at java.util.Spliterator$OfInt.forEachRemaining(Spliterator.java:693)
at java.util.stream.ReferencePipeline.collect(ReferencePipeline.java:566)
解决方法:
刚开始以为是平台功能升级引入了新Bug,费了一番功夫后发现,Hudi表字段减少了,在Flink SQL中去掉对应的几个字段就正常了.
哎,就这么简单
网上还看到如果源库是大小写敏感的比如Mysql,如果在Flink中的字段名称大小写没匹配上,也会报这个错.
总之单从报错信息,是很难看出藏在后面的调皮的问题的。哎!
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)