为什么Spark强制从元组列表中构建RDD,以便在进行还原键转换的情况下?:166) at org.apache.spark.api.python.PythonRDD.compute(PythonRDD.scala:70)
at org.apache.spark.rdd.RDD.computeOrReadCheckpoin
我正在尝试运行中给出的Spark / Python的Logistic回归示例,并且已经成功地使用了Spark1.6和Python2.7。现在我必须将它移到Spark2.1和Python3.5( 3.6是不兼容的),我正在使用Ubuntu16.04中的木星笔记本# Evaluate the model on training:48
但是,当我试图使用结果RDD、count()、collec