在执行pyspark dataframe自连接时,我收到一条错误消息: Py4JJavaError: An error occurred while calling o1595.join.
: org.apache.spark.sql.AnalysisExceptionPlease check if the right attribute(s) are used.;; 这是一个简单的数据帧自连接,如下所示,运行良好,但在对数据帧执行了几个操作后,如添加列或与其他
我在Spark中加入了一些DataFrames,但我一直收到以下错误:
PartitioningCollection requires all of its partitionings have the这似乎发生在我将两个DataFrames连接在一起之后,每个DataFrame看起来都相当合理,但是在连接它们之后,如果我试图从连接的the中获取一行,我会得到这个错误。我真的只是想知道为什么会出现这个错误,或者它背后的意义是什么,因为我似乎找不到任何关于它的文档。Dataset.repa