首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >Apache Hive 安装详解及相关问题解决方案

Apache Hive 安装详解及相关问题解决方案

作者头像
天策
发布于 2018-06-22 07:05:41
发布于 2018-06-22 07:05:41
70400
代码可运行
举报
文章被收录于专栏:行者悟空行者悟空
运行总次数:0
代码可运行

摘 要

本文介绍hive工具的安装及整合mysql

下载Hive

点击hive官方下载

hive目前两个运行版本分为两个分支:1.x 、2.x

1.x主要是运行在MapReduce上面。

2.x主要运行在Spark上面。

安装及配置
  1. 上传并解压Hive

将Hive上传到hadoop集群服务器/itunic/目录下,并解压到当前目录。

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
tar -zxvf apache-hive-1.2.1-bin.tar.gz

2.将hive配置到环境变量

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
vi /etc/profile
#set hive env
export HIVE_HOME=/itunic/hive
export PATH=${HIVE_HOME}/bin:$PATH
#让环境变量生效
source /etc/profile

3.修改Hive配置文件

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
修改hive-env.sh文件

进入${HIVE_HOME}/conf/目录下,执行:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#将hive-env 模板文件复制一份
cp hive-env.sh.template hive-env.sh
#复制完成后进入该文件的编辑模式
vi hive-env.sh
#将以下内容写入到hive-env.sh文件中
#jdk的安装目录
export JAVA_HOME=/itunic/jdk
#hadoop的安装目录
export HADOOP_HOME=/itunic/hadoop
#hive的安装目录
export HIVE_HOME=/itunic/hive
  • 修改log4j文件

进入${HIVE_HOME}/conf/目录下,执行:

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
#copy hive-log4j模板文件
cp hive-log4j.properties.template hive-log4j.properties
#编辑该文件
vi hive-log4j.properties
#将EventCounter修改成org.apache.hadoop.log.metrics.EventCounter
#log4j.appender.EventCounter=org.apache.hadoop.hive.shims.HiveEventCounter
log4j.appender.EventCounter=org.apache.hadoop.log.metrics.EventCounter
  • 整合Mysql

由于hive自身的derby模式,只运行有一个Session连接。在多人使用hive的时候,会造成线程不安全问题。这里我们采取将于mysql整合,把hive的元数据保存进mysql。因为mysql本身支持多session,这样就可以避免多人使用hive时,造成的线程不安全问题。

进入${HIVE_HOME}/conf/目录下,执行:

  1. vi hive-site.xml

将以下信息写入到hive-site.xml文件中

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
<configuration>
 <property>
 <name>javax.jdo.option.ConnectionURL</name>
 <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value>
 </property>
 <property>
 <name>javax.jdo.option.ConnectionDriverName</name>
 <value>com.mysql.jdbc.Driver</value>
 </property>
 <property>
 <name>javax.jdo.option.ConnectionUserName</name>
 <value>root</value>
 </property>
 <property>
 <name>javax.jdo.option.ConnectionPassword</name>
 <value>root</value>
 </property>
</configuration>

6.copy Mysql 驱动

安装hive和mysq完成后,将mysql的连接jar包拷贝到$HIVE_HOME/lib目录下

7.启动hive

bin/hive

附录

1.如果报错Terminal initialization failed; falling back to unsupported

将${HIVE_HOME}/lib 里面的jline2.12替换了hadoop 中${HADOOP_HOME}/share/hadoop/yarn/lib/jline-0.09*.jar

2.如果启动hive报mysql没有权限,在mysql授权(在安装mysql的机器上执行)

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
mysql -uroot -p
#(执行下面的语句  *.*:所有库下的所有表   %:任何IP地址或主机都可以连接)
GRANT ALL PRIVILEGES ON *.* TO 'root'@'localhost' IDENTIFIED BY 'root' WITH GRANT OPTION;
FLUSH PRIVILEGES;

3.如果抛出异常

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
Logging initialized using configuration in jar:file:/itunic/apache-hive-2.0.0-bin/lib/hive-common-2.0.0.jar!/hive-log4j2.properties
Exception in thread "main" java.lang.RuntimeException: Hive metastore database is not initialized. Please use schematool (e.g. ./schematool -initSchema -dbType ...) to create the schema. If needed, don't forget to include the option to auto-create the underlying database in your JDBC connection string (e.g. ?createDatabaseIfNotExist=true for mysql)

则需要执行以下命令即可解决

代码语言:javascript
代码运行次数:0
运行
AI代码解释
复制
schematool -dbType mysql -initSchema
本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2016年11月17日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
Hive基础02、安装Hive
Hive基础02、安装Hive 前置 开启【hdfs】,六个服务都要在。 start-all.sh jps 安装Hive 1、解压【Hive】 tar -zxvf apache-hive-2.1.0-bin.tar.gz 由于命名不合适,所以更换一下: mv apache-hive-2.1.0-bin/ hive 2、修改配置 在“/opt/hive/conf”目录下拷贝“hive-default.xml.template”与“hive-env.sh.template”两个文件,并将
红目香薰
2022/11/30
8740
Hive基础02、安装Hive
Hive配置安装
关于Hive的配置 1. 安装Mysql 在集群中选择一台节点进行安装mysql yum -y install mariadb-server mariadb 开启服务并配置开机自启 systemctl start mariadb.service systemctl enable mariadb.service 设置密码,第一次登录时密码为空,之后设置使用sql语句设置密码 mysql -u root -p # 登录之后,先查看database
俺也想起舞
2019/07/24
8430
配置Hive实验环境(三)远程部署
经过查询,两台主机的地址分别是192.168.56.105和192.168.56.106,那么105作为本地,106作为远程
esse LL
2024/03/12
6200
hive环境---安装系列五
tar -zxvf apache-hive-1.2.1-bin.tar.gz -C /itcast/
Dlimeng
2023/06/29
2070
Windows环境下安装Hadoop+Hive的使用案例
首先到官方下载官网的hadoop2.7.7,链接如下  https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/ 找网盘的hadooponwindows-master.zip  链接如下  https://pan.baidu.com/s/1VdG6PBnYKM91ia0hlhIeHg 把hadoop-2.7.7.tar.gz解压后  使用hadooponwindows-master的bin和etc替换hadoop2.7.7的bin和etc 
小勇DW3
2019/05/15
4.7K0
Windows环境下安装Hadoop+Hive的使用案例
Hive 安装(单机版)
http://www.pianshen.com/article/1872402467/
宋先生
2020/02/18
1.6K0
P03_Hive 安装
安装hive包 [CDH下载地址](http://archive.cloudera.com/cdh5/cdh/5/) 1、将hive-0.13.1-cdh5.3.10.tar.gz使用WinSCP上传到sparkproject1的/usr/local目录下。 2、解压缩hive安装包:tar -zxvf hive-0.13.1-cdh5.3.6.tar.gz 3、重命名hive目录:mv hive-0.13.1-cdh5.3.6 hive 4、配置hive相关的环境变量 vi /etc/profile
Albert陈凯
2018/04/08
5970
Hive的安装及配置
在安装hive之前,需要安装hadoop集群环境,如果没有可以查看:Hadoop分布式集群的搭建
foochane
2019/06/11
2.3K0
hive环境搭建
wget https://repo1.maven.org/maven2/mysql/mysql-connector-java/8.0.30/mysql-connector-java-8.0.30.jar
海风铃
2022/10/26
4210
Hive单用户模式安装
hadoop01-hadoop04:hadoop集群 hadoop01:MySQL服务器 hadoop02:Hive
CoderJed
2018/09/13
1.4K0
Hive单用户模式安装
基于Ubuntu Hadoop的群集搭建Hive
Hive是Hadoop生态中的一个重要组成部分,主要用于数据仓库。前面的文章中我们已经搭建好了Hadoop的群集,下面我们在这个群集上再搭建Hive的群集。
深蓝studyzy
2022/06/16
6730
Hive安装配置详解
Hive安装配置详解 1. 安装MySQL  sudo apt-get install mysql-server mysql-client  1). 建立数据库hive, create database hive;   2). 创建用户hive create user 'hive'@'%' identified by 'hive';  3).创建hive用户,并授权 grant all on hive.* to hive@'%'  identified by 'hive';   flush privileg
汤高
2018/01/11
1.9K0
搭建Hadoop集群(二)
rpm --import https://repo.mysql.com/RPM-GPG-KEY-mysql-2022
用户9615083
2022/12/25
6240
搭建Hadoop集群(二)
Hadoop+Hive+HBase+Spark 集群部署(四)
本文由 bytebye 创作 本站文章除注明转载/出处外,均为本站原创或翻译,转载前请务必署名
ByteBye
2019/09/24
6400
大数据集群搭建之Linux安装Hive2.3.2
GettingStarted - Apache Hive - Apache Software Foundation
静谧星空TEL
2022/01/05
1.4K0
大数据集群搭建之Linux安装Hive2.3.2
hive安装配置(0.11版本)
1 假设Hadoop已经安装并配置正确,MySQL已经正确安装 2 为支持Hive的多用户多会话需求,需要使用一个独立的数据库存储元数据。   这里选择MySQL存储Hive的元数据,现在为Hive创建元数据库: mysql> create database hive; mysql> create user 'hive' identified by '123456'; mysql> grant all privileges on *.* to 'hive'@'%' with grant option; f
闵开慧
2018/03/30
7850
Hive的安装和配置
```bash tar -zxvf apache-hive-3.1.1-bin.tar.gz -C /root/bigdata/
h3110_w0r1d
2024/02/19
5990
Hive的安装和配置
06-PDI(Kettle)读取Hive写入HDFS,读取HDFS写入HBase中
本文主要通过Kettle完成对Hive和HBase中数据的读写工作,为了便于按照文档即可实现Kettle的读写Hive和HBase,文本前面也介绍下Hive的安装过程,如何Hive已经完成安装,可跳过前面即可。 实验环境: cetnos7.4
IT从业者张某某
2022/11/12
1.6K0
06-PDI(Kettle)读取Hive写入HDFS,读取HDFS写入HBase中
Apache Hive 快速入门
本文节选自《Netkiller Database 手札》 CentOS 7.3 + Server JRE 1.8 + Hadoop-2.8.0 + Hive-2.1.1 第 63 章 Apache
netkiller old
2018/03/05
1.1K0
Apache Hive 快速入门
win10安装Hive3.0.0
下载 mysql-connector-java-5.1.47.jar ,添加到 lib目录下
静谧星空TEL
2022/05/10
6710
win10安装Hive3.0.0
相关推荐
Hive基础02、安装Hive
更多 >
领券
一站式MCP教程库,解锁AI应用新玩法
涵盖代码开发、场景应用、自动测试全流程,助你从零构建专属AI助手
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档