我尝试在raspberry pi 2上安装蜂箱,我通过解压缩压缩的hive包并在我创建的hduser用户组下手动配置$HADOOP_HOME和$HIVE_HOME来安装Hive。运行hive时,我收到以下错误消息:
错误StatusLogger没有找到log4j2配置文件。使用默认配置:只将错误记录到控制台。线程“主”java.lang.RuntimeException中的异常:未初始化蜂窝转移数据库。请使用示意图(例如.如果需要,不要忘记在JDBC连接字符串
jars to connect to metastore.Please set spark.sql.hive.metastore.jars.'jars to connect to metastore.Please set spark.sql.hive.metastore.jars.'基于erorr消息,看起来我需要设置一个名为spark.sql.hive.metastore.jars的东西,但我不知道这是什么,也不知道我会在哪里设置
" field "org.apache.hadoop.hive.metastore.model.MDatabase.catalogName" : declared in MetaData, but this(MetaStoreDirectSql.java:190) at org.apache.hadoop.hive.
我正在学习如何在蜂箱中使用星星之火,我在互联网上找到的每一个教程都含糊地解释了这种关系,首先,当人们说hive compatible with spark.I下载了预置的星星之火,而它的版本是2.1.1在我的例子中,两者都是2.1.1 (但我得到了这个错误),或者它们是指metastore database schema version and hive-metastore jar version inside根据
为了处理目前随Hive1.2JAR提供的Spark2
我已经使用教程安装了蜂箱。但是当我运行折叠式逗号时我知道这个错误
SLF4J: Class path contains multiple SLF4J bindings.SLF4J: Found binding in [jar:file:/usr/lib/hive/apache-hive-2.0.0-bin/lib/hive-jdbc-2.0.0-standalone.jar/apache-hive-2.0.