首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何从存储库中查找触发了Pentaho作业的用户

Pentaho是一款开源的商业智能(BI)工具,用于数据集成、数据分析和报告生成。它提供了一个可视化的界面,使用户能够通过简单的拖放操作来创建数据流程和作业。

要从存储库中查找触发了Pentaho作业的用户,可以按照以下步骤进行:

  1. 登录Pentaho数据集成(PDI)客户端:使用Pentaho提供的客户端工具(如Spoon)登录到Pentaho数据集成(PDI)服务器。
  2. 打开存储库资源视图:在PDI客户端中,打开存储库资源视图。这个视图允许你浏览和管理存储在Pentaho存储库中的作业和转换。
  3. 导航到作业目录:在存储库资源视图中,导航到包含目标作业的目录。你可以使用文件夹树状结构来浏览存储库中的目录和作业。
  4. 找到目标作业:在目标目录中,找到触发了Pentaho作业的用户的作业。你可以根据作业的名称、描述或其他属性来搜索作业。
  5. 查看作业日志:选中目标作业后,右键单击并选择"查看日志"选项。这将打开一个日志窗口,显示作业的执行日志。
  6. 分析作业日志:在作业日志中,你可以查看作业的执行情况、执行时间、触发用户等信息。根据日志中的信息,你可以确定触发了作业的用户。

需要注意的是,Pentaho作业的日志记录可以根据配置进行调整。如果作业的日志级别设置为较低的级别,可能无法获取到触发用户的详细信息。在实际应用中,建议根据需求和安全性考虑,适当配置作业的日志记录级别。

腾讯云提供了一系列与Pentaho相关的产品和服务,例如云服务器、对象存储、数据库等,可以根据具体需求选择适合的产品。你可以访问腾讯云官方网站(https://cloud.tencent.com/)了解更多关于腾讯云的产品和服务信息。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

NoSQL为什么需要模式自由的ETL工具?

但是NoSQL仍然可以从类似的工具中受益,这种工具可以使非开发人员从各种系统读取数据,清理数据,发现数据信息,将数据与其他数据源合并,执行统计分析,以及机器学习等对其进行高级操作,然后将丰富的数据和新的见解存储到目标数据库...元数据注入的好处在于用户可以创建单个转换来执行此加载,但是可以通过父转换对其实施参数化。甚至可以在单个作业中配置此父转换项,并在输入数据源列表上循环以执行此项工作。...然后,将这些元数据存储起来,以便通过元数据注入来驱动ETL过程 在NoSQL的世界里,变得相关的是从各种来源加载大量的数据,并通过数据科学,而不是通过人工配置来确定数据实体如何在系统间相互链接。...无论底层数据存储如何,Pentaho都可以成为这样一个中心,因此客户不必依靠数据库供应商来嵌入这些设施,而NoSQL数据库公司不需要投入数百万美元的费用来构建它们。...可以把客户编号“下推”到首先传递给NoSQL数据库的查询中,而不是从其NoSQL数据库加载所有的客户销售,并将它们缓存在内存中。

1.8K100

Kettle构建Hadoop ETL实践(二):安装与配置

它基于RPM包管理,能够从指定的服务器(在资源库文件中定义)自动下载安装RPM包,并且可以自动处理依赖性关系,一次安装所有依赖的软件包,无须繁琐地一次次下载安装。...在CentOS下使用yum安装Java非常简单: # 查找yum资源库中的java包 yum search java | grep -i --color JDK # 安装Java 1.8 yum install...这个文件用来存储JNDI连接对象的连接参数。Kettle可以用JNDI的方式引用JDBC连接参数,如IP地址、用户认证等,这些连接参数最终用来在转换和作业中构造数据库连接对象。...Kettle资源库可以存储在关系数据库里,也可以使用插件存储到其它存储系统,例如存储到一个像SVN这样的版本控制系统。...但是,共享的步骤或作业项不会被自动放在画布里,需要把它们从树状列表中拖到画布里,以便在转换或作业里使用。 共享对象存储在shared.xml文件中。

7.5K31
  • Kettle构建Hadoop ETL实践(三):Kettle对Hadoop的支持

    decoder 对HBase的键/值对进行编码 Hadoop file input 读取存储在Hadoop集群中的文本型文件 Hadoop file output 向存储在...将HDFS上的数据导出到一个关系数据库中 Sqoop import 使用Sqoop将一个关系数据库中的数据导入到HDFS上 表3-2 Kettle作业中的大数据相关作业项...Shim是Pentaho开发的插件,功能有点类似于一个适配器,帮助用户连接Hadoop。Pentaho定期发布Shim,可以从sourceforge网站下载与Kettle版本对应的Shim安装包。...通过将Impala与Hive元数据存储数据库相结合,能够在Impala与Hive这两个组件之间共享数据库表。...在本示例中,我们先为Kettle配置Spark,然后修改并执行Kettle安装包中自带的Spark PI作业例子,说明如何在Kettle中提交Spark作业。 1.

    6.3K21

    Kettle与Hadoop(二)Kettle安装配置

    # 查找yum资源库中的java包 yum search java | grep -i --color JDK # 安装Java 1.8 yum install -y java-1.8.0-openjdk.x86...(1).spoonrc 从名字就可以看出来,.spoonrc文件用于存储Spoon程序的运行参数和状态。其它Kettle的程序都不使用这个文件。....这个文件用来存储JNDI连接对象的连接参数。Kettle可以用JNDI的方式来引用JDBC连接参数,如IP地址、用户认证,这些连接参数最终用来在转换和作业中构造数据库连接对象。...如果使用资源库保存转换或作业,如下这些预定义变量就可以定义一个默认资源库: KETTLE_REPOSITORY:默认的资源库名称。 KETTLE_USER:资源库用户名。...但是,共享的步骤或作业项不会被自动放在画布里,需要把它们从树状列表中拖到画布里,以便在转换或作业里使用。 共享对象存储在shared.xml文件中。

    6.5K50

    01-PDI(Kettle)简介与安装

    在Kettle中数据的最小单位是数据行(row),数据流中流动的是缓存的行集(rowset)。...Job作业:完成整个工作流的控制 区别: 作业是步骤流(一般为串行),转换是数据流(并行) 作业的每一个步骤,必须等到前面的步骤都跑完了,后面的步骤才会执行;而转换会一次性把所有的控件全部启动...对于kettle的转换,不能定义一个执行顺序,因为所有的步骤都是并发方式执行;当转换启动后,所有步骤都同时启动,从它们的输入跳中读取数据,并发处理过的数据写出到输出跳,直到输出跳里不再有数据,就中止步骤的运行...作业 作业,负责定义一个完成整个工作流的控制,比如将转换的结果发送邮件给相关人员,因为转换以并行方式执行,所以必须存在一个串行的调度工具来执行转换,这就是Kettle中的作业。...: 文件后缀: 转换文件后缀为ktr 工作文件后缀为kjb 存储方式: 以XML形式存储(本地文件) 以资源库的方式存储(数据库和文件)

    2.4K20

    kettle学习【大牛经验】

    ETL是EXTRACT(抽取)、TRANSFORM(转换)、LOAD(加载)的简称,实现数据从多个异构数据源加载到数据库或其他目标地址,是数据仓库建设和维护中的重要一环也是工作量较大的一块。...kettle其实是以前的叫法,现在官方称为:PDI(Pentaho Data Integeration)。在windows中,双击目录中的Spoon.bat启动kettle. ?...并把这两个统计数字放在数据库表的一行的两列中, 即输出的结果有一行,一行包括两列,每列是一个统 计值。...在Linux中以kitchen.sh执行job任务,pan.sh执行transform任务;这里我们以上面为实例,如何在Linux中进行部署。...第二步:对于已在windos中执行成功的地址、文件名、用户等参数进行变量替换。

    4.5K21

    「集成架构」ETL工具大比拼:Talend vs Pentaho

    Talend和Pentaho的区别 数据总是巨大的,任何行业都必须存储这些“数据”,因为它带有巨大的信息,从而导致他们的战略规划。正如人们需要房子感到安全一样,数据也必须得到保障。...它遵循一个简单的过程,其中提取的数据从其原始形式适应它需要的形式(目标),以便它可以与另一个数据库相关联。...尽管该过程看起来很简单,但该过程涉及通过从多个数据库合并和同步来实现规则或查找表 加载:“L”功能仅遵循一条路线。将数据写入目标数据库。 管理员在没有任何工具的帮助下关联不同数据库是一项艰巨的任务。...这些工具需要对现有系统和目标系统都具有灵活性,并提供广泛的交付能力。虽然Talend是一个开源数据集成工具,但如果他们利用其提供更多附加功能的订阅,则可以从该工具中获益更多。...与Pentaho Talend和Pentaho Kettle都是强大的,用户友好的,可靠的开源工具。

    2.2K21

    「集成架构」2020年最好的15个ETL工具(第二部)

    最好的开源ETL工具列表与详细比较: ETL代表提取、转换和加载。它是从任何数据源中提取数据并将其转换为适当格式以供存储和将来参考的过程。 最后,该数据被加载到数据库中。...推荐的ETL工具 Hevo是一个无代码的数据管道平台,可以帮助您实时地将数据从任何源(数据库、云应用程序、sdk和流)移动到任何目的地。 主要特点: 易于实现:Hevo可以在几分钟内设置和运行。...Pentaho数据集成使用户能够清理和准备来自不同来源的数据,并允许在应用程序之间迁移数据。PDI是一个开源工具,是Pentaho商业智能套件的一部分。 主要特点: PDI可用于企业版和社区版。...企业平台有额外的组件,增加了Pentaho平台的能力。 易于使用,易于学习和理解。 PDI的实现遵循元数据方法。 用户友好的图形界面拖放功能。 ETL开发人员可以创建自己的工作。...Data Integrator web administrator是一个web界面,允许管理各种存储库、元数据、web服务和作业服务器 它有助于调度、执行和监视批处理作业。

    2.4K10

    Kettle与Hadoop(一)Kettle简介

    透明 Kettle不需要用户了解转换中某一部分工作是如何完成的,但允许用户看到ETL过程中各部分的运行状态。这样可以加快开发速度、降低维护成本。...文件名:转换或作业所在的文件名或URL。只有当转换或作业是以XML文件的形式存储时,才需要设置这个属性。当从资源库加载时,不必设置这个属性。...Kettle以插件的方式灵活定义不同种类的资源库,但不论是哪种资源库,它们的基本要素是相同的:这些资源库都使用相同的用户界面、存储相同的元数据。...目前有3种常见资源库:数据库资源库、Pentaho资源库和文件资源库。 数据库资源库:数据库资源库是把所有的ETL信息保存在关系数据库中,这种资源库比较容易创建,只要新建一个数据库连接即可。...无论哪种资源库都应该具有下面的特性: 中央存储:在一个中心位置存储所有的转换和作业。ETL用户可以访问到工程的最新视图。 文件加锁:防止多个用户同时修改。

    3.3K21

    印尼医疗龙头企业Halodoc的数据平台转型之路:数据平台V1.0

    • Pentaho:Pentaho 是一个提供数据提取、集成、转换、挖掘和加载功能的工具。...Pentaho 很大程度上是由 UI 驱动,并且受限于软件提供的功能,在 Halodoc我们正在慢慢地从 Pentaho 转向 Airflow。...来自各种来源的所有数据首先转储到各种 S3 存储桶中,然后再加载到 Redshift(我们的数据仓库)中,S3 中的数据也充当备份,以防任何 ETL 作业失败。...我们对工具的选择主要受以下因素驱动: • 易用性:BI 开发人员/分析师必须很容易即可创建和维护报告和仪表板。 • RBAC:我们应该能够为公司中的不同用户提供细粒度的访问。...Prometheus 通过这些目标上的导出器从 HTTP 端点抓取指标,从受监控的目标收集指标。

    2.2K20

    pentaho server 9.2 配置mysql数据源

    1.建库 建库脚本 pentaho-server/data/mysql create_jcr_mysql.sql Jackrabbit 包含解决方案仓库,样例,安全数据,报表数据 create_quartz_mysql.sql...Quartz 报表和作业计划相关数据 create_repository_mysql.sql Hibernate 审计记录相关数据 注:脚本中包含默认用户和密码 2..../hibernate/mysql5.hibernate.cfg.xml 2.3 替换默认的审计记录配置文件 拷贝pentaho-server/pentaho-solutions.../tomcat/lib 注:9.2版本整合tomcat的部署包自带mysql的jdbc驱动,无需额外准备 注:如果控制台报SQL语法错误,则下载MYSQL对应的新版本的JDBC驱动替换 3.2 修改...JDBC链接配置 pentaho-server/tomcat/webapps/pentaho/META-INF/context.xml 修改用户名、密码、驱动类、链接url 修改校验查询语句为validationQuery

    2K10

    如何在4周内构建数据仓库,第2部分

    到目前为止,我们已经有了需要复制的数据的概念以及我们想要存储数据的数据库。缺失的部分就是复制的过程。我们如何存储复制的数据?我们如何转换数据?这些是我在这篇文章中所要回答的问题。...处理 有很多方法可以将事务数据库中的数据复制到DW(数据仓库)中。为了简单起见,假设我们每天运行一次作业来复制数据。但如果当时,我们的业务不能运行,那么事务数据库就没有被更新。...IMAGE1显示两个数据库有两种不同的模式,图中我们用数据仓库并且用一个问号来表明我们需要复制(还未知道如何复制)的数据。 我们将使用ETL(提取,转换和加载)作业来填充我们的DW。...第一个将数据从我们的事务数据库复制到暂存区域,进行一些最小限度的转换(如转换数据类型)。第二个ETL使用大量地转换将数据从暂存区复制到数据仓库。 让我们仔细看看这两种方法。...其他实施说明:使用BI平台 像Pentaho这样的BI平台将为您提供编写和执行ETL作业的所有功能。如果您没有多少时间,并且您不介意使用拖放式编程,则可以在几天内编写所需的所有ETL作业。

    1.1K60

    Pentaho Work with Big Data(六)—— 使用Pentaho MapReduce生成聚合数据集

    本示例说明如何使用Pentaho MapReduce把细节数据转换和汇总成一个聚合数据集。当给一个关系型数据仓库或数据集市准备待抽取的数据时,这是一个常见使用场景。...关于如何使用Pentaho MapReduce把原始web日志解析成格式化的记录,参考 http://blog.csdn.net/wzy0623/article/details/51145570。...新建一个作业,如图10所示。 图10 2. 编辑'Pentaho MapReduce'作业项,如图11到图14所示。 图11 图12 图13 图14 说明: ....执行作业,日志如图16所示。 图16 从图16可以看到,作业已经成功执行。 3. 检查Hadoop的输出文件,结果如图17所示。...图17 从图17可以看到,/user/grid/aggregate_mr目录下生成了名为part-00000输出文件,文件中包含按IP和年月分组的PV数。

    43930

    kettle使用教程(超详细)

    3.填写SQL语句 4.建立与表输入的关系 5、测试转换是否能正常工作 6、新建作业,更改作业名称,选择作业归属 7、添加组件 *步骤: 1在组件组-通用中找到组件-START(作业开始,用于作业调度设置...这样就算你可以入门了,我相信在不断的探索中你会有更多的心得的。...更新: 很早之前写的文章,发现大家许多人想要下载安装包,我就给大家把链接顺便也找到了 Kettle下载地址: Pentaho from Hitachi Vantara – Browse /Data Integration...由于kettle的连接中暂时没有clickhouse插件,需要自己搞定,先看下官网提示: https://help.hitachivantara.com/Documentation/Pentaho/8.1...上面是自己查找的一些资料,下面分享安装包及插件: kettle的9.2版本: 百度云链接如下(包含kettle安装包、连接mysql驱动和clickhouse插件): https://pan.baidu.com

    7.6K21

    Kettle工具——Spoon、Kitchen、Pan、Carte

    Carte:轻量级的(大概1MB)Web服务器,用来远程执行转换或作业,一个运行有Carte进程的机器可以作为从服务器,从服务器是Kettle集群的一部分。 1....图1的当前选中的画布标签里显示了一个设计好的转换。 设计作业或转换的过程实际就是往画布里添加作业项或转换步骤的图标这么简单,向画布添加图标的方式为,从左侧的树中拖拽。...核心对象中包含Kettle中所有可用的作业项或步骤,可以在搜索框中输入文本查找名称匹配的作业项或步骤。...参数名 参数值 作用 norep rep 资源库名称 要连接的资源库的名称 user 资源库用户名 要连接的资源库的用户名 pass 资源库用户密码 要连接的资源库的用户密码 listrep 显示所有的可用资源库.../kitchen.sh # 运行一个存储在文件中的作业 Kettle-home> .

    8.2K10

    ETL作业调度工具TASKCTL与kettle功能性对比都有哪些优劣势

    Pentaho Data Integration (Kettle)是Pentaho生态系统中默认的ETL工具。通过非常直观的图形化编辑器(Spoon),您可以定义以XML格式储存的流程。...在Kettle运行过程中,这些流程会以不同的方法编译。...用到的工具包括命令行工具(Pan),小型服务器(Carte),数据库存储库(repository)(Kitchen)或者直接使用IDE(Spoon)。...Kettle:可以使用 job 作业方式或操作系统调度,来执行一个转换文件或作业文件,也可以通过集群的方式在多台机器上部署。...扩展性: TASKCTL:支持市面上主流的大部分数据库、ETL、脚本语言等作业类型的调度,另外底层调度核心基于插件式调度,可支持任意作业类型的自定义扩展,插件扩展有相应的范例可供参考编写。

    1.7K40

    大数据处理分析的六大工具

    Hadoop是一个能够让用户轻松架构和使用的分布式计算平台。用户可以轻松地在Hadoop上开发和运行处理海量数据的应用程序。它主要有以下几个优点: 高可靠性。...Pentaho SDK共包含五个部分:Pentaho平台、Pentaho示例数据库、可独立运行的Pentaho平台、Pentaho解决方案示例和一个预先配制好的 Pentaho网络服务器。...其中Pentaho平台是Pentaho平台最主要的部分,囊括了Pentaho平台源代码的主体;Pentaho数据库为 Pentaho平台的正常运行提供的数据服务,包括配置信息、Solution相关的信息等等...,对于Pentaho平台来说它不是必须的,通过配置是可以用其它数据库服务取代的;可独立运行的Pentaho平台是Pentaho平台的独立运行模式的示例,它演示了如何使Pentaho平台在没有应用服务器支持的情况下独立运行...;Pentaho解决方案示例是一个Eclipse工程,用来演示如何为Pentaho平台开发相关的商业智能解决方案。

    3K150
    领券