首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

在Windows 8.1上安装配置单元时出现错误"Missing Hive Execution Jar: C:\ Hive \lib/hive-exec-*.jar“

在Windows 8.1上安装配置单元时出现错误"Missing Hive Execution Jar: C:\Hive\lib/hive-exec-*.jar"是由于缺少Hive执行库文件所导致的。

Hive是一个基于Hadoop的数据仓库基础设施,用于进行大规模数据集的存储和分析。它提供了类似于SQL的查询语言,称为HiveQL,使用户能够使用熟悉的SQL语法来查询和分析数据。

该错误提示指出缺少Hive执行库文件hive-exec-*.jar。解决此问题的步骤如下:

  1. 确保已正确安装和配置Hive。可以从Apache Hive官方网站下载最新版本的Hive,并按照官方文档进行安装和配置。
  2. 检查Hive安装目录下的lib文件夹,确保其中存在hive-exec-*.jar文件。如果缺少该文件,可能是安装过程中出现了问题或者下载的Hive版本不完整。
  3. 如果缺少hive-exec-*.jar文件,可以尝试重新下载并安装Hive,确保完整性。
  4. 如果仍然无法解决问题,可以尝试从其他可靠来源获取缺少的hive-exec-*.jar文件,并将其放置在Hive安装目录的lib文件夹中。
  5. 在安装和配置Hive之前,确保已正确安装和配置Hadoop。Hive依赖于Hadoop来进行数据存储和处理。

腾讯云提供了一系列与大数据和云计算相关的产品和服务,可以帮助用户轻松构建和管理大规模数据集和分析任务。以下是一些推荐的腾讯云产品和产品介绍链接地址:

  1. 腾讯云Hadoop:https://cloud.tencent.com/product/emr 腾讯云提供的弹性MapReduce(EMR)服务,可以帮助用户快速构建和管理Hadoop集群,轻松进行大规模数据处理和分析。
  2. 腾讯云数据仓库ClickHouse:https://cloud.tencent.com/product/ch 腾讯云提供的ClickHouse服务,是一个高性能、可扩展的列式数据库,适用于大规模数据存储和分析场景。

请注意,以上推荐的腾讯云产品仅供参考,具体选择和使用需根据实际需求进行评估和决策。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

Hive安装配置

1 安装说明 安装hive之前,需要安装hadoop集群环境,如果没有可以查看:Hadoop分布式集群的搭建 1.1 用到的软件 软件 版本 下载地址 linux Ubuntu Server 18.04.2...、MySQL、PostgreSQL均只安装在Master节点,实际生产环境中,需根据实际情况调整 Hive默认元数据保存在内嵌的 Derby 数据库中,这是最简单的一种存储方式,使用derby存储方式...先初始化 schematool -dbType mysql -initSchema 和前面一样,执行 $ hive 7 问题总结 问题1 初始化derby时报如下错误,提示没有hive-exec-*....jar hadoop@Master:~$ schematool -initSchema -dbType derby Missing Hive Execution Jar: /usr/local/biddata.../hive-2.3.5/lib/hive-exec-*.jar 解决: 检查该目录下是否确实不存在hive-exec-2.35.jar,如果不存在,下载一个放到该目录下。

2.1K30
  • 0840-6.3.4-Aqua Data Studio工具安装及访问安全环境的Hive和Impala

    3.配置环境变量 安装完了Kerberos客户端会自动的path里面加上了自己的目录,但是如果windows本地安装了Oracle JDK ,该JDK里面也带了一些 kinit, klist 等命令,...4.配置客户端的hosts解析,确保通过hostname能够正常访问集群 文件路径:C:\Windows\System32\drivers\etc\hosts 5.修改krb5.ini配置信息,内容如下...这四个Apache Hive JDBC驱动程序文件位于以下位置: 其中 [ADS_INSTALL] 是Aqua Data Studio的安装目录 [ADS_INSTALL]\lib\drivers\hive-exec.jar...[ADS_INSTALL]\lib\drivers\hive-jdbc.jar [ADS_INSTALL]\lib\drivers\hive-metastore.jar [ADS_INSTALL]...8.1测试 hive ? ? 8.2测试 impala ? 9.Debug模式 工具提供了debug启动方式,不同在于可以看到kerberos的调试信息,用于连接失败可以排查问题。

    1.1K10

    0841-7.1.6-Aqua Data Studio工具安装及访问安全环境的Hive和Impala

    3.配置环境变量 安装完了Kerberos客户端会自动的path里面加上了自己的目录,但是如果windows本地安装了Oracle JDK ,该JDK里面也带了一些 kinit, klist 等命令,...4.配置客户端的hosts解析,确保通过hostname能够正常访问集群 文件路径:C:\Windows\System32\drivers\etc\hosts 5.修改krb5.ini配置信息,内容如下...这四个Apache Hive JDBC驱动程序文件位于以下位置: 其中 [ADS_INSTALL] 是Aqua Data Studio的安装目录 [ADS_INSTALL]\lib\drivers\hive-exec.jar...[ADS_INSTALL]\lib\drivers\hive-jdbc.jar [ADS_INSTALL]\lib\drivers\hive-metastore.jar [ADS_INSTALL]...8.1测试 hive ? ? 8.2测试 impala ? ? 9.Debug模式 工具提供了debug启动方式,不同在于可以看到kerberos的调试信息,用于连接失败可以排查问题。

    1.1K30

    超详细步骤!整合Apache Hudi + Flink + CDH

    packaging下面各个组件中编译成功的jar包 将hudi-flink-bundle_2.11-0.10.0-SNAPSHOT.jar放到flink1.13.1的lib目录下可以开启Hudi...安装 YARN MapReduce 框架 JAR 进入平台操作,安装YARN MapReduce框架JAR 设置Hive辅助JAR目录 因为后面考虑到hudi的数据存到oss,所以要放这几个包进来(...关于oss的配置详细可参考oss配置文档) 重启Hive,使配置生效 2....多几次往kafka里面造数据 注意:要以char8更新,因为这个是primary key 查看Hudi里面是否生成parquet文件 hue查看Hive中是否有数据同步过来,可以看到数据已经从Hudi...写少读多的场景 mor 相反 MOR表压缩在线压缩按照配置压缩,如压缩失败,会有重试压缩操作,重试压缩操作延迟一小后重试

    3.6K42

    Hive On Spark搭建报错:Failed to create Spark client for Spark session xx: ..TimeoutException

    错误描述 按照官方文档,搭建Hive On Spark出现以下错误。...但多数情况下,可能是hive on spark的配置错误或缺失,导致无法响应。...Hive On Spark是需要特定的Spark版本的,如果当前Hive只支持Spark 1.x,则需把spark-assembly.jar拷贝到Hivelib目录下。...但如果你使用了Spark2.x的集群,Spark2.x 的lib下是诶没有这个jar包的。所以会出现报错情况。 解决方案 从官网查询当前Hive所依赖的Spark版本,重新安装Spark。...公众号《数舟》中,可以免费获取专栏《数据仓库》配套的视频课程、大数据集群自动安装脚本,并获取进群交流的途径。 我所有的大数据技术内容也会优先发布到公众号中。

    1.6K40

    Flink开发-生成Jar(Maven依赖处理)

    测试(test):针对项目中的关键点进行测试,确保项目迭代开发过程中关键点的正确性。 打包(package):将一个包含诸多文件的工程封装为一个压缩文件用于安装或部署。...Java 工程对应 jar 包,Web工程对应 war 包。 安装(install): Maven 环境下特指将打包的结果(jar包或war包)安装到本地仓库中。...部署(deploy):将打包的结果部署到远程仓库或将 war 包部署到服务器运行。 打包区别 mvn package:打包到本项目,一般项目target目录下。...mvn deploy:打包上传到远程仓库,如:私服nexus等,需要配置pom文件。...用户项目中可使用maven helper搜索calcite相关依赖,将其provided,并将这些依赖放入flink lib目录下,重启flink服务即可 常见的包含calcite的依赖有: hive-exec

    2.3K40

    Hadoop Hive与Hbase整合+thrift

    配置Hive配置文件路径 •export HIVE_CONF_DIR= your path •配置Hadoop的安装路径 •HADOOP_HOME=your hadoop home 我们按数据元的存储方式不同安装...另外,你必须在创建Hive库表前,HDFS创建/tmp和/hive/warehousedir(也称为hive.metastore.warehouse.dir的),并且将它们的权限设置为chmod g...就能连上,默认10000端口,后面的部分一定要带上,否则用eclipse连接不的) 起来后我们eclipse就可以使用jdbc:hive来连接了。...MetaException(message:org.apache.hadoop.hbase.MasterNotRunningException: Retried 10 times 出现这个错误的原因是引入的...--service hiveserver 下载php客户端包: 其实hive-0.12包中自带的php lib,经测试,该包报php语法错误

    1.6K20

    工作流调度器azkaban(以及各种工作流调度器比对)

    1:工作流调度系统的作用: (1):一个完整的数据分析系统通常都是由大量任务单元组成:比如,shell脚本程序,java程序,mapreduce程序、hive脚本等; (2):各任务单元之间存在时间先后及前后依赖关系...    b、借助MapReduce计算框架对原始数据进行转换,生成的数据以分区表的形式存储到多张Hive表中;     c、需要对Hive中多个表的数据进行JOIN处理,得到一个明细数据Hive大表;... hive、sqoop的机器,方便命令的执行,在当前用户目录下新建 azkabantools目录,用于存放源安装文件.新建azkaban目录,用于存放azkaban运行程序;    (3)azkaban...所以使用SSL来生成这个证书,下面创建SSL的配置:  脑补一下:安装java,安装目录下就有keytool,如果输入的时候输错了,不要慌,按住ctrl+Backspace键即可清楚错误操作命令。...或者azkaban数据表,应该是没有权限的问题,赋予一下权限即可: 如果出现没有权限的问题,mysql授权(安装mysql的机器执行)     mysql -uroot -p123456

    3.2K111

    第五章 更换cdh版本,hive安装使用,原理讲解

    这里由于小编的这里安装hive,由于出现了启动hive出现了和hadoop的版本不一致的原因,并且始终没有解决,所以就改变策略使用cdh版本的hadoop和hive.因为cdh版本的比较系统,兼容性好...)该 jar 包放置 hivelib目录下 2,2如同配置hadoop的环境变量一样,设置hive的环境变量。...安装好了mysql,我们把原来用derby数据库HDFS生成的hive目录删掉,目的是不与我们用mysql数据库产生冲突,如下所示。...的简介,如下图所示,Hive是一个数据仓库,它部署Hadoop集群,它的数据是存储HDFS的,Hive所建的表HDFS对应的是一个文件夹,表的内容对应的是一个文件。...5,遇到错误 5.1ls: Call From ubuntu/127.0.1.1 to ubuntu:9000 failed on connection exception 访问hdfs出现错误,如

    1.4K20

    Hive2.2.0如何与CDH集群中的Spark1.6集成

    /CDH/lib/spark/lib/spark-assembly.jar spark-assembly.jar [root@ip-172-31-5-38 lib]# ll spark-assembly.jar...将Hive2 On Spark的Spark依赖包放在HDFS,防止Yarn运行Spark作业时分发spark-assembly.jar包 3.修改hive-site.xml配置文件,文件的末尾增加如下内容...Fayson这里可以使用hive2和hive2-server命令是因为/etc/profile配置了命令的别名 alias hive2="nohup /opt/cloudera/HIVE2/bin/hive...5.总结 ---- 1.配置集成Hive2 On Spark需要注意在hive-site.xml文件中配置 spark.eventLog.enabled和spark.eventLog.dir否则Spark...2.访问Hive2执行Spark作业时会看到,会在Yarn启动一个Spark的常驻进程,当前会话的所有SQL操作均在该常驻进程中执行会在该作业下产生多个Job Id,不会产生新的Spark作业,当会话终止

    1.2K21

    安装配置Hive

    安装配置Hive 2018-7-17 作者: 张子阳 分类: 大数据处理 直接通过MapReduce来对存储Hadoop HDFS的数据进行查询和分析比较繁琐而且还需要编程。...这篇文章记录了如何在linux安装hive。因为hive基于Hadoop,所以需要先安装Hadoop,如果你还没有安装Hadoop,可以参考linux安装配置Hadoop(单节点)进行安装。...命令安装至/opt文件夹 # tar zxvf apache-hive-2.3.3-bin.tar.gz -C /opt 配置PATH环境变量 使用vim编辑~/.bashrc,加入HIVE_HOME环境变量...# hive Logging initialized using configuration in jar:file:/opt/hive/apache-hive-2.3.3-bin/lib/hive-common...所以每次执行hive最好进入同一个文件夹,否则就会创建很多个metastore_db,然后再次出现上面的异常。

    1.9K30
    领券