在运行以下代码时,我没有得到可序列化的错误:Exception in thread "main" org.apache.spark.SparkException: Task not serializable at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scal
我正在寻找一种解决方案,以便在Apache节点上执行代码时能够记录额外的数据,这可能有助于以后研究在执行过程中可能出现的一些问题。例如,尝试使用像com.typesafe.scalalogging.LazyLogging这样的传统解决方案会失败,因为日志实例不能在像Apache这样的分布式环境中序列化。这是我的完整代码:import org.apache.spark._
def mai
我能够读取和解析数据,但是当我调用下面的行来保存数据时,我将得到一个Task not Serializable异常。extends Serializable { val sparkConf = new SparkConf():任务不可序列化的
16/08/06 10:24:52错误JobScheduler:错误运行作业流作业1470504292000