首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Hive-beeline服务

Hive客户端工具后续使用了Beeline 替代HiveCLI ,并且后续版本也会废弃掉HiveCLI 客户端工具,Beeline是 Hive 0.11版本引入的新命令行客户端工具,它是基于SQLLine...在嵌入式模式下,运行嵌入式的Hive(类似Hive CLI),而远程模式可以通过Thrift连接到独立的HiveServer2进程上。...启动hiveserver2与beeline 服务 bin/hiveserver2 在启动hiveserver2服务以后,会发现光标静止不动,这不是执行完了的标志,是等待在等待 beeline -u jdbc...:hive2://localhost:10000/default -n root 启动beeline服务 通过jdbc 连接到beeline 就可以对 hive 进行操作了 2、beeline 的常用参数...connect url –连接不同的Hive2服务器 2、!exit –退出shell 3、!help –显示全部命令列表 4、!verbose –显示查询追加的明细

85420
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Hive元数据服务MetaStore

    hive.metastore.uris 远程元数据存储的 Thrift URI。元数据服务客户端通过该配置连接远程元数据。...3.1 内嵌MetaStore 默认情况下,MetaStore 服务Hive 服务运行在同一个 JVM 中,包含一个内嵌的以本地磁盘作为存储的 Derby 数据库实例。 ?...这种配置方式成为本地配置,因为 MetaStore 服务仍然和 Hive 服务运行在同一个进程中,但连接的却是另一个进程中运行的数据库,在同一台机器上或者远程机器上。 ?...3.3 远程MetaStore 在远程模式下,MetaStore 服务Hive 服务运行在不同进程中。...启动服务 我们可以通过执行以下命令来启动MetaStore服务hive --service metastore -p 9083 & 如果我们在 hive-site.xml 配置文件中指定了 hive.metastore.uris

    9.8K42

    HiveHive简介

    存储原理: hive的数据存储在HDFS上,hive的表其实就是HDFS的目录,hive没有自己的数据存储格式,存储结构主要包括:数据库、文件、表、视图、索引。...hive默认可以直接加载text文本文件等。创建表时,指定hive的数据的列分隔符与行分隔符,hive即可解析数据。...表: Hive中的表和关系型数据库中的表在概念上很类似,每个表在HDFS中都有相应的目录用来存储表的数据,这个目录可以通过${HIVE_HOME}/conf/hive-site.xml配置文件中的hive.metastore.warehouse.dir...如果我有一个表table1,那么在HDFS中会创建/user/hive/warehouse/table1目录(这里假定hive.metastore.warehouse.dir配置为/user/hive/...由于Hive的元数据需要不断的更新、修改,而HDFS系统中的文件是多读少改的,这显然不能将Hive的元数据存储在HDFS中。目前Hive将元数据存储在数据库中,如Mysql、Derby中。

    1.4K50

    Hive thrift服务(将Hive作为一个服务器,其他机器可以作为客户端进行访问)

    :     bin/beeline -u jdbc:hive2://master:10000 -n hadoop 接下来就可以做正常sql查询了 1:将Hive作为一个服务器,其他机器可以作为客户端进行访问...2:然后寻找符合thrift的这种协议的客户端来连这个服务,然而hive自带这种客户端(我这里复制本台机器,弄了两个窗口): ? 然后呢,就是开启了命令行客户端了,然后了连接你的hive即可。...connect jdbc:hive2//master:10000写成!connect jdbc:hive2//localhost:10000即可。...1 [root@master apache-hive-1.2.1-bin]# cd bin/ 2 [root@master bin]# ls 3 beeline ext hive hive-config.sh...connect jdbc:hive2://localhost:10000 2 Connecting to jdbc:hive2://localhost:10000 3 Enter username

    3.7K90

    HiveHive 的基本认识

    ; 适合处理大数据:; 可扩展性强:可以自由扩展集群的规模,不需要重启服务而进行横向扩展; 容错性强:可以保障即使有节点出现问题,SQL 语句也可以完成执行; 1.2.2 缺点 Hive 不支持记录级别的增删改操作...如上图所示: Hive 提供了 CLI(hive shell)、JDBC/ODBC(Java 访问 hive)、WeibGUI 接口(浏览器访问 hive); Hive 中有一个元数据存储(Metastore...元数据包括表名、表所在数据库、表的列名、分区及属性、表的属性、表的数据所在的目录等; Thrift Server 为 Facebook 开发的一个软件框架,可以用来进行可扩展且跨语言的服务开发,Hive...通过集成了该服务能够让不同编程语言调用 Hive 的接口; Hadoop 使用 HDFS 进行存储,并使用 MapReduce 进行计算; Diver 中包含解释器(Interpreter)、编译器(...6.Reference 尚硅谷Hive教程(新版hive框架详解) Hive学习之路 (一)Hive初识 Hive内部表与外部表的区别

    1.4K40

    Hive篇---Hive使用优化

    一.前述 本节主要描述Hive的优化使用,Hive的优化着重强调一个 把Hive SQL 当做Mapreduce程序去优化 二.主要优化点 1.Hive运行方式: 本地模式 集群模式 本地模式 开启本地模式...: set hive.exec.mode.local.auto=true; 注意: hive.exec.mode.local.auto.inputbytes.max默认值为128M 表示加载文件的最大值...对于小表可以直接从从hdfs直接拿到本地计算 2.并行计算 通过设置以下参数开启并行模式: set hive.exec.parallel=true; 注意:hive.exec.parallel.thread.number...= true; (该参数为true时,Hive自动对左边的表统计量,如果是小表就加入内存,即对小表使用Map join)(默认左边的加载到内存中去) 相关配置参数: hive.mapjoin.smalltable.filesize...sum,count时使用) 通过设置以下参数开启在Map端的聚合: set hive.map.aggr=true; 相关配置参数: hive.groupby.mapaggr.checkinterval

    3.5K10

    Hive基础06、Hive引入数组

    Hive基础06、Hive引入数组 目录 Hive基础05、Hive引入数组 1、建表语句 2、创建【arrayInfo.txt】 3、上传到【/soft/temp/】 4、引入数组操作 ----...外部表在建表的同时必须指定一个指向实际数据的路径(LOCATION),Hive在创建内部表时,会将数据移动到数据仓库指向的路径;若创建外部表,仅记录数据所在的路径,不对数据的位置做任何改变。...5、CLUSTERED BY 对于每一个表(table)或者分区, Hive 可以进一步组织成桶,也就是说桶是更为细粒度的数据范围划分,Hive采用对列值哈希,然后除以桶的个数求余的方式决定该条记录存放在哪个桶当中...8、LOCATION 定义 hive 表的数据在 hdfs 上的存储路径,一般管理表(内部表不不要自定义),但是如果定义的是外部表,则需要直接指定一个路径。

    74110

    hive(2)——hive基本操作

    前提:开启hadoop,关闭safe模式(关闭safe模式命令:hdfs dfsadmin -safemode leave) (1)创建一个数据库hive_test ?...(2)切换到hive_test ? (3)在数据库里面创建表hive_table ?...注意:这里的数据类型的写法和mysql不是很像,因为我们是从一个结构数据直接导入到我们的hive中,所以不需要在后面加括号写多大的数据,并且后面的row format跟的东西是我们以逗号将数据分开。...在hive目录下: ? 在warehouse目录下: ? 找到了我们的hive_test表,并且在hive_test.db目录下能找到我们创建的hive_table表: ?...(6)将此文件导入hive_table中 ? (7)查看数据是否加入成功 ? ? ? 可见导入成功 (8)再次查看hdfs ? 可见,相当于将此文件复制到了hdfs下

    46110

    通过hiveserver远程服务构建hive web查询分析工具

    (1)hive 三种启动方式及用途,本文主要关注通过hiveserver(可jdbc连接)的方式启动  1, hive  命令行模式,直接输入/hive/bin/hive的执行程序,或者输入 hive...--service cli        用于linux平台命令行查询,查询语句基本跟mysql查询语句类似  2, hive  web界面的启动方式,hive --service hwi  ...      用于通过浏览器来访问hive,提供基本的基于web的hive查询服务,可以看作是hive数据平台的demo, 具体用法可见:http://www.cnblogs.com/gpcuster.../archive/2010/02/25/1673480.html   使用HIVE的WEB界面:HWI 3, hive  远程服务 (端口号10000) 启动方式,nohup ....开源工具phphiveadmin就采用的这种方式,这种方式其实启动了一个 Hive Thrift Server ,允许你使用任意语言 与hive server通信,所以如果你不会java,语言将不会成为问题

    1.1K50

    Hive

    Hive降低了将这些应用程序转移到Hadoop系统上的难度。凡是会使用SQL语言的开发人员都可以很轻松的学习并使用Hive。...如果没有Hive,那么这些用户就必须学习新的语言和工具,然后才能应用到生产环境中。另外,相比其他工具,Hive更便于开发人员将基于SQL的应用程序转移到Hadoop中 。...如果没有Hive,那么开发者将面临一个艰巨的挑战,如何将他们的SQL应用程序移植到Hadoop上。 Hive不是一个完整的数据库。...Hadoop以及HDFS的设计本身约束和局限性地限制了Hive所能胜任的工作。其中最大的限制就是Hive不支持记录级别的更新、插入或者删除操作。但是用户可以通过查询生成新表或者将查询结果导入到文件中。...传统数据库中在秒级别可以完成的查询,在Hive中,即使数据集相对较小,往往也需要执行更长的时间。 引自Hive编程指南

    61610

    扫码

    添加站长 进交流群

    领取专属 10元无门槛券

    手把手带您无忧上云

    扫码加入开发者社群

    相关资讯

    热门标签

    活动推荐

      运营活动

      活动名称
      广告关闭
      领券