我们正在尝试使用hivecontext(1.6.0)运行配置单元查询,但获得了“AnalysisException”。81368), 'yyyyMMdd'), '000000'), 'yyyyMMddHHmmss'), 81368) ) endCaused by: org.apache.spark.sql.AnalysisExceptionAdd to group by or wrap in first() (or fi
我一直用scala中的spark从本地系统连接到Hive (它在集群中),最后将我的hive-site.xml正确地放置在Spark/conf文件夹和类路径中,并且能够连接到转移,但无法访问蜂窝表。如何更改HiveContext的用户
15/12/22 10:28:42 INFO ParseDriver:解析命令:显示表15/12/22 10:28:43 INFO ParseDriver: ParseDriver:解析完成15/
但我想从spark执行它。我已经创建了一个spark-sql-hive上下文,如下所示scala> val sqlHContext = new org.apache.spark.sql.hive.HiveContext(sc)
sqlHContext: org.apache.spark.sql.hive.HiveContext = org.apache.spark.sql.hive.HiveContext@71138de5COL_DATET