我在本地运行SPARK (我没有使用Mesos),当运行像d3=join(d1,d2)和d5=(d3,d4)这样的连接时,我得到了以下异常"org.apache.spark.SparkException: awaitResult中的异常抛出“. org.apache.spark.SparkException: Exception thrown in awaitResult:
at org.apache.spark<
该错误只发生在4-5分钟后,微批间隔为10秒.我使用Spark1.6.1在一个基于Kafka的ubuntu服务器上进行输入和输出流。请注意,我不可能提供最小的代码来重新创建这个错误,因为它不会发生在单元测试用例中,而且应用程序本身是非常大的。
at org.apache.spark.rpc.RpcTimeou
我试图将运行在虚拟机中的星火集群与10.20.30.50应用程序中的IP 7077和端口7077连接起来,并运行单词计数示例: at org.apache.spark.rpc.RpcTimeout$$anonfun$1.applyOrElse(RpcTimeout.scala167) ~[scala-library-2.11.8.jar:na]