读取Spark2.0中的多行json文件时出现异常 val data = spark.read .json("C:\\user\\Spark(FileInputFormat.java:262)的org.apache.hadoop.mapreduce.lib.input.FileInputFormat类访问org.apache.spark.rdd.R
(RDD.scala:244) at org.apache.spark.rdd.UnionRDD.compute(UnionRDD.scala:87) )在org.apache.spark.rdd.RDD.computeOrReadCheckpoint(RDD.scala:277) at org.apache.spark.rdd.RDD.iterator(
当使用spark连接器将数据写入Bigquery时。我正在讨论这个问题。如果从文件中读取数据,则连接器将数据写入bigquery表。但是,只有当从Cassandra表读取数据时,它才会抛出上述错误。我在读取文件和从Cassandra读取后检查类型。两者都指向正确的spark.sql.Dataframe类型。$1.apply$mcV$sp(PairRDDFunctions.scala:1083)
at org.apache.spa
让config.json成为一个小json文件: "toto": 1我编写了一个简单的代码,用sc.textFile读取json文件(因为该文件可以放在S3、本地或HDFS上,所以textFile(RDDOperationScope.scala:133)
at org.apache.spark.rdd.RDDOperationScope$$anonfun$5.apply(RDDOperationScope.scala