星火是返回垃圾/十进制字段的值时,查询一个外部蜂巢表在星火代码中使用星火SQL。
在我的应用程序流中,火花进程最初将数据直接写入存在外部Hive表的HDFS中。当第二个Spark进程试图使用Spark从Hive表中消费时,会获取不正确的数据。scala> val df_hive = spark.sql("select * from db1.test_pre
我使用spark和scala来读取一个特定的Hive分区。分区是year、month、day、a和b。scala> spark.sql("select * from db.table where year=2019 and month=2 and day=28 and a='y' and b='z'").show
org.apache.hadoop.security.AccessControlException::由于阶段失败而中止作业:阶段0.0<em