在我的实验室中,HBase存档预先写入日志,即没有删除oldWALs文件,并且oldWALs目录在is中快速增长。
8.1 K 24.4 K /hbase/.hbase-snapshot
0 0 /hbase/.hbck
0 0 /hbase/.tmp
3.6 K 10.7 K /hbase/MasterProcWALs
900.3 M 7.1 G /hbase/WALs
3.4 G 10.3 G /hbase/archive
0 0 /hbase/corrupt
938.7 G 2.
HBase wal变得越来越大。详情如下:
3.2 K 9.6 K /hbase/.hbase-snapshot
0 0 /hbase/.hbck
0 0 /hbase/.tmp
0 0 /hbase/MasterProcWALs
534.2 G 1.6 T /hbase/WALs
400.3 M 1.2 G /hbase/archive
0 0 /hbase/corrupt
267.0 G 796.5 G /hbase/data
42 1
我试图在Mac上运行Hadoop 2的Hbase 0.96.1.1。我跑的时候。/开始-hbase.sh,
开始,主人,登录到..。
但它在那之后就坠毁了。
I checked the log file and this the error message it spat out:
Fri Mar 28 12:49:20 PDT 2014 Starting master on ms12
core file size (blocks, -c) 0
data seg size (kbytes, -d) unlimited
fi
我是一个初学者,我正在尝试使用sbt导入phoenix库来读取spark中的hbase表,但我的build.sbt总是给我错误。 导入sbt项目时出错: [error] stack trace is suppressed; run 'last update' for the full output
[error] stack trace is suppressed; run 'last ssExtractDependencies' for the full output
[error] (update) sbt.librarymanagement.Resolv
我正在尝试从安巴里运行我的hbase主程序,它是started....even,我使用JPS命令来查看主程序是否启动,我可以看到它已经启动了,但是当我试图创建表或列表表时,它显示了异常……
ERROR: org.apache.hadoop.hbase.ipc.ServerNotRunningYetException: Server is not running yet
at org.apache.hadoop.hbase.ipc.CallRunner.run(CallRunner.java:100)
at org.apache.hadoop.hbase.ipc.FifoRpcS
编辑:我将顶层pom文件中定义的hbase依赖项添加到项目级pom中,现在它可以找到包了。
我有一个scala对象,用于从Spark (1.0.1)中的HBase (0.98.4-hadoop2)表中读取数据。但是,当我尝试导入org.apache.hadoop.hbase.mapreduce.TableInputFormat.时,使用maven编译会导致错误
error: object mapreduce is not a member of package org.apache.hadoop.hbase
代码和相关的pom如下:
import org.apache.hadoop.hbase
我使用带色调的Hbase创建了一些表。重新启动集群后,我不能再打开/创建表(它处于挂起状态)。我还尝试了Hbase shell,但在尝试扫描表时出现以下错误
ERROR: org.apache.hadoop.hbase.NotServingRegionException: Region hbase:meta,,1 is not online
at org.apache.hadoop.hbase.regionserver.HRegionServer.getRegionByEncodedName(HRegionServer.java:2590)
at org.apa
我遵循这个快速入门的说明,但无法在我的pc上运行hbase standalone。有人能帮上忙吗?谢谢
日志如下:
2014-01-13 13:15:01,667 WARN [main] zookeeper.ZKUtil: clean znode for master, quorum=localhost:2181, baseZNode=/hbase Unable to get data of znode /hbase/master
org.apache.zookeeper.KeeperException$SessionExpiredException: KeeperErrorCode =
我已经在ubuntu 12.04上安装了hadoop单节点。现在,我正在尝试在其上安装hbase (0.94.18版)。但是我得到了以下错误(尽管我已经将其解压缩到/usr/local/hbase中):
Error: Could not find or load main class org.apache.hadoop.hbase.util.HBaseConfTool
Error: Could not find or load main class org.apache.hadoop.hbase.zookeeper.ZKServerTool
starting maste
我已经成功地配置了Hadoop2.6.0。接下来,我试图安装Hbase 0.98.9,但启动Hbase时遇到了问题。
我收到以下错误消息:
Error: Could not find or load main class org.apache.hadoop.hbase.util.HBaseConfTool
Error: Could not find or load main class org.apache.hadoop.hbase.zookeeper.ZKServerTool
starting master, logging to /usr/local/hbase/logs/hbase-
我能够成功地运行
/opt/hbase/hbase_current/bin/hbase
在命令行上,当连接到GNU/Linux集群时。
但是,当我将此命令作为bash脚本的一行时,错误是:
: No such file or directoryopt/hbase/hbase_current/bin/hbase
我做错了什么?
当我根据“哪个bash”的结果向bash脚本添加了一个标头时,我得到了以下错误:
bash: ./file.sh: /bin/bash^M: bad interpreter: No such file or directory
该文件的内容如下:
#!/bin/bash
dinesh@dinesh-VirtualBox:/usr/local/hbase-1.2.5/bin$ start-hbase.sh
如下所示
localhost: zookeeper running as process 6637. Stop it first.
starting master, logging to /usr/local/hbase-1.2.5/logs/hbase-dinesh-master-dinesh-VirtualBox.out
starting regionserver, logging to /usr/local/hbase-1.2.5/logs/hbase-