您可以使用链接捕获pyspark中的explain()的结果中所示的相同方法来构建辅助函数。只需检查源代码
show()并观察它正在调用
self._jdf.showString()。
答案取决于您使用的是哪个版本的spark,因为参数的数量
show()随时间而变化。Spark 2.3及更高版本
在版本2.3中,
vertical添加了自变量。
Spark版本1.5到2.2def getShowString(df, n=20, truncate=True, vertical=False): if isinstance(truncate, bool) and truncate: return(df._jdf.showString(n, 20, vertical)) else: return(df._jdf.showString(n, int(truncate), vertical))
从1.5版开始,
truncate添加了参数。
Spark版本1.3到1.4def getShowString(df, n=20, truncate=True): if isinstance(truncate, bool) and truncate: return(df._jdf.showString(n, 20)) else: return(df._jdf.showString(n, int(truncate)))
该
show功能最初是在1.3版中引入的。
def getShowString(df, n=20): return(df._jdf.showString(n))
现在,如下使用助手功能:
x = getShowString(df) # default argumentsprint(x)#+----+-------+#| age| name|#+----+-------+#|null|Michael|#| 30| Andy|#| 19| Justin|#+----+-------+
或您的情况:
logger.info(getShowString(df))
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)