我刚接触druid并尝试通过本地文件加载数据。我已经设置了节点和zookeeper实例。我已经在Ubuntu18.04中尝试过,并且工作正常,但是我尝试在lUbuntu中使用它,我看到了下面的错误:
2018-07-30T12:25:03,390 ERROR [main] io.druid.cli.CliPeon - Error when starting up. Failing.
com.google.inject.ProvisionException: Unable to provision, see the following errors:
1) Error in custom p
昨天,我从Hive创建了我的第一个数据源Druid。今天,我不确定这是否行得通..。 首先,我运行以下代码来创建我的数据库: SET hive.druid.broker.address.default = 10.20.173.30:8082;
SET hive.druid.metadata.username = druid;
SET hive.druid.metadata.password = druid_password;
SET hive.druid.metadata.db.type = postgresql;
SET hive.druid.metadata.uri = jdbc:pos
我得到了NullPointerException on DruidDataSource.getConnectionInternal(DruidDataSource.java:1704)?
下面是完整的堆栈跟踪。你能帮我理解这个问题吗?
Caused by: org.apache.ibatis.exceptions.PersistenceException:
### Error updating database. Cause: java.lang.NullPointerException
### The error may exist in com/byai/line/dal/mapper/
我正在使用Kafka,Druid和SuperSet测试数据流。
我在德鲁伊有一些数据(见1.pic胞)。
在此之后,我可以通过选项“刷新Druid元数据”(参见2.pic)在Superset中生成Druid数据源,问题是当我想要查询数据时,我会得到以下错误消息:
URLError: <urlopen error [Errno -2] Name or service not known>
Traceback (most recent call last):
File "/usr/lib/python2.7/site-packages/superset/viz.py
我试图运行超过500 K数据限制的groupBy查询。我得到了这个错误。
{
"error": "Resource limit exceeded",
"errorMessage": "Not enough dictionary space to execute this query. Try increasing druid.query.groupBy.maxMergingDictionarySize or enable disk spilling by setting druid.query.groupBy.maxOnD