我想出了下面的错误,错误'Module not Found org.apache.phoenix.spark‘失败了,但是这个模块肯定是Jar的一部分。.appName("ECLoad") .config("spark.sql.warehouse.dir", warehouseLocation)
spar
我们的应用程序的hadoop集群安装了Spark1.5。但是由于特定的需求,我们使用2.0.2版本开发了spark job。当我向yarn提交作业时,我使用--jars命令覆盖集群中的spark库。java.lang.NoSuchMethodError: scala.Predef$.ArrowAssoc(Ljava/lang/Object;)Ljava/lang/Object;
at org.apache.spark.sql.SparkSession$Bui