我有一份3.25天的工作,它在将数据文件写入DBFS时失败了。更新:我有第二份长期工作(也是3+天)以同样的方式失败。我可以使用这个集群来处理没有问题的较小的作业,看起来只会影响长作业。=ignoreNullFields) at org.apache.spark.sql.DataFrameWriter.runCommand(DataFrameWriter.scala:959)
at org.apache.
从Spark-Shell运行时,相同的写入块工作正常。在使用sqlContext写入拼图文件时,我需要添加任何额外的依赖项吗?)
at org.apache.spark.sql.DataFrameWriter$$anonfun$runCommand$1.apply(DataFrameWriter.scala:676)org.apache.spark.sql.DataFrameWriter.runCommand(DataFrameWriter.s
我正在使用Google Cloud Dataproc做spark工作,我的编辑器是Zepplin。我正在尝试将json数据写入gcp存储桶。当我尝试10MB文件时,它成功了。5个具有相同配置的工作进程。我猜它应该能够处理10 it的数据。(DataFrameWriter.scala:656) at o
org.apache.spark.sql.DataFrameWriter$$anonfun$runCommand$1.apply(DataFrameWriter.scala:664) at org.apache.spark.sql.DataFrameWriter$.withNewExecutionId(SQLExecution.scala:77) at org.apache.spark.sql.DataFrameWriter.runCommand(DataFra
Apache文档说"Hudi与Spark-2.x版本一起工作“环境详细信息如下:我使用下面的星火:80)
at org.apache.spark.sql.DataFrameWriter$$anonfun$runCommand$1.apply(DataFrameWriter.scala:654)at org.apache.spark.sql.Data
当我不使用bucketBy()时,saveAsTable()方法可以正常工作。当我使用它的时候,我会得到UnknownHostException at org.apache.spark.sql.DataFrameWriter$$anonfun$runCommand$1.apply(DataFrameWriter.scala:676)at org.apache.spark.sql.DataFrameWriter$$anonfun$runComman
我遇到的问题是:虽然它工作正常,但仍然抛出异常下面。$$anonfun$runCommand$1.apply(DataFrameWriter.scala:668) at org.apache.spark.sql.DataFrameWriter.runCommand(DataFrameWriter.scala:668)