首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

我们可以在HDP 3中安装Apache Falcon吗?

在 HDP 3(Hortonworks Data Platform 3.x)中,Apache Falcon 已经被弃用,不再作为默认组件提供。Hortonworks 在 HDP 3 中推荐使用 Apache NiFi 和 Apache Atlas 作为替代方案来实现数据流和数据治理功能。

为什么不再支持 Apache Falcon?

  1. 功能重叠: Apache NiFi 提供了更强大和灵活的数据流管理功能,而 Apache Atlas 提供了更全面的数据治理和元数据管理功能。
  2. 社区支持: Apache Falcon 的社区支持和开发活动已经减少,Hortonworks 选择了更活跃和功能更强大的项目来替代 Falcon。

替代方案

  1. Apache NiFi: 用于数据流管理和编排。它提供了一个基于 Web 的用户界面,可以轻松地设计、管理和监控数据流。
  2. Apache Atlas: 用于数据治理和元数据管理。它提供了数据分类、数据血缘、数据安全和合规性管理等功能。

如何在 HDP 3 中使用 Apache NiFi 和 Apache Atlas

安装 Apache NiFi

  1. 通过 Ambari 安装:
    • 打开 Ambari 管理界面。
    • 导航到 Add Service
    • 选择 NiFi 并按照向导完成安装。
  2. 手动安装:
    • 下载 Apache NiFi 的二进制文件。
    • 解压缩并配置 nifi.properties 文件。
    • 启动 NiFi 服务。

安装 Apache Atlas

  1. 通过 Ambari 安装:
    • 打开 Ambari 管理界面。
    • 导航到 Add Service
    • 选择 Atlas 并按照向导完成安装。
  2. 手动安装:
    • 下载 Apache Atlas 的二进制文件。
    • 解压缩并配置 atlas-application.properties 文件。
    • 启动 Atlas 服务。

使用 Apache NiFi 和 Apache Atlas

  1. Apache NiFi:
    • 打开 NiFi 的 Web UI(默认端口为 8080)。
    • 使用拖放界面设计数据流。
    • 配置处理器、连接器和其他组件来管理数据流。
  2. Apache Atlas:
    • 打开 Atlas 的 Web UI(默认端口为 21000)。
    • 使用 Atlas 提供的 API 或 UI 来管理元数据。
    • 配置数据分类、数据血缘和其他数据治理功能。

结论

虽然在 HDP 3 中不再支持 Apache Falcon,但你可以使用 Apache NiFi 和 Apache Atlas 来实现类似的功能。这些工具提供了更强大和灵活的功能,可以更好地满足现代数据流和数据治理的需求。如果你仍然需要使用 Apache Falcon,可以考虑在独立环境中安装和配置,但这不推荐用于生产环境。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

OushuDB入门(六)——任务调度篇

Oozie工作流可以参数化,例如在工作流定义中使用像${inputDir}之类的变量等。提交工作流操作的时候,我们必须提供参数值。...启动Oozie服务 我的实验环境用的是HDP2.5.3,安装之时就已经配置并启动了Oozie服务。HDP安装过程参见“OushuDB入门(一)——安装篇” 2....], main() threw exception, org/json/JSONObject 我的HDP2.5.3安装中没有该文件,需要自行下载,然后拷贝到相应目录。...图4 从上图可以看出,Apache FalconHadoop环境中各种数据和“处理元素(processing element)”之间建立了联系。...启动Falcon服务 我的实验环境用的是HDP2.5.3,安装之时就已经配置并启动了Falcon服务。 2.

73810

HAWQ取代传统数仓实践(五)——自动调度工作流(Oozie、Falcon

Oozie工作流可以参数化,例如在工作流定义中使用像${inputDir}之类的变量等。提交工作流操作的时候,我们必须提供参数值。...启动Oozie服务         我的实验环境用的是HDP2.5.0,安装之时就已经配置并启动了Oozie服务。 2....], main() threw exception, org/json/JSONObject         我的HDP2.5.0安装中没有该文件,需要自行下载,然后拷贝到相关目录。...图4         从上图可以看出,Apache FalconHadoop环境中各种数据和“处理元素(processing element)”之间建立了联系。...启动Oozie服务         我的实验环境用的是HDP2.5.0,安装之时就已经配置并启动了Falcon服务。 2.

2K60
  • 【大数据版本对比】Hortonworks HDP2.x到3.x技术演进及版本梳理

    HDP3.0默认安装包括Apache Ranger与Apache Atlas,目的是提供受信任以及安全的数据库。...且为了精简技术堆栈,HDP3.0同时移除了一些组件包括Apache FalconApache Mahout, Apache Flume和Apache Hue,并将Apache Slider的功能也引入到...HDP 3.0 删除了Apache FalconApache Mahout,Apache Flume和Apache Hue等组件,并将Apache Slider功能融合到Apache YARN中。...4.列编码 这是HDP的新功能。你可以HBase表中使用自定义数据编码方案来减少占用的空间。由于读取的数据较少,可以增加性能以及减少存储。稀疏表的性能增益为30%及以上。...3.7.1.3.适用于企业 1.能够Ranger安装期间为管理员帐户指定密码 2.所有受支持的DB flavor的合并db schema脚本 3.安装HDP3.0时,默认安装Ranger和Atlas

    3.6K40

    0480-如何从HDP2.6.5原地迁移到CDH5.16.1

    Fayson的github: https://github.com/fayson/cdhproject 提示:代码块部分可以左右滑动查看噢 1 文档编写目的 我们常使用的Hadoop平台包括Apache...Hadoop,CDH和HDP,有时我们会碰到需要迁移平台的情况,举个例子,比如你已经一直使用Apache Hadoop2.4,近期看到CDH6附带Hadoop3发布了,想迁移到CDH并且做整个平台的所有组件升级...HDP安装了一些常见服务,HDFS的HA已经取消,并且HDFS,Hive表和HBase中都导入了数据。...8 安装CDH 前面步骤略过,直接到主机检查。如何安装CDH依旧可以参考Fayson之前的文章《0470-如何在Redhat7.4安装CDH5.16.1》。...10.我们对比查看HDP之前NameNode上的元数据layoutVersion,如下所示 ? ? ?

    83640

    Hortonworks正式发布HDP3.0

    为了提供受信任以及安全的数据湖,HDP3.0默认安装包括Apache Ranger与Apache Atlas。...为了简化堆栈,HDP3.0移除了一些组件包括Apache FalconApache Mahout, Apache Flume和Apache Hue,同时将Apache Slider的功能引入到Apache...4.列编码 这是HDP的新功能。你可以HBase表中使用自定义数据编码方案来减少占用的空间。由于读取的数据较少,可以增加性能以及减少存储。稀疏表的性能增益为30%及以上。...8.1.3.适用于企业 1.能够Ranger安装期间为管理员帐户指定密码 2.所有受支持的DB flavor的合并db schema脚本 3.安装HDP3.0时,默认安装Ranger和Atlas。...FreeIPA是一种广受欢迎的IDM工具,我们现在正式支持启用Kerberos时与FreeIPA集成。

    3.5K30

    iScience|不确定性量化问题:我们可以相信AI药物发现中的应用

    例如,回归设置下,UQ模型是否可以精确估计误差分布的方差,这对于置信区间估计是有用且重要的。...相应地,UQ的概念更广泛,可以指用于确定预测是否可靠的所有方法。因此,UQ 概念上涵盖了AD定义方法。...因此,预测的不确定性总预测不确定性中的比例可以用来估计一个模型是否达到了可能的MAA。...提高模型准确性和稳健性 到目前为止,我们引入的大多数策略都将UQ视为模型建立工作流程中的独立模块。一个重要原因是,我们希望模型准确性和可解释性之间做出权衡。...总体而言,UQ方面,我们还需要走很长的路,才能让人工智能在药物开发的不同阶段的决策中发挥更重要的作用。 参考资料 Yu J, Wang D, Zheng M.

    2.3K30

    0484-Cloudera和Hortonworks合并后面临的选择

    Cloudera和Hortonworks表示两家公司合并完成后,现有客户当前使用的产品依旧可以得到三年的支持,对于现有平台依旧会持续迭代更新比如fix bugs。...虽然两家公司都希望提供简单的迁移方法(比如从CDH到统一版本,或者从HDP到统一版本),但我们预计即将发布的统一版本与早期的CDH或者HDP版本之间,随着时间的推移,差异会越来越大,尤其是到第三年时。...Sentry还可以在外围安全方面发挥作用,Hortonworks为此开发了Apache Knox。...考虑到Apache Ambari,Atlas和Ranger之间的相互依赖性,以及提供HDP和统一版本之间兼容性的需求,我们再次怀疑它们将全部包含在统一版本中 - 至少最初阶段。...但其实Hortonworks已经这么玩过了,比如他们最近将Apache Falcon数据管理框架替换为Data Lifecycle Manager,这个玩意是作为DataPlane云服务提供的。

    1.5K10

    ubuntu下安装pycharm教程_可以开始菜单中创建快捷方式

    微信公众号: 吴甜甜的博客 我的个人网站: wutiantian.github.io ---- Ubuntu 18中安装Pycharm及创建Pycharm快捷方式 一、Ubuntu18.04中安装...版本: https://www.jetbrains.com/pycharm/ 点击DOWNLOAD NOW按钮,进入系统版本下载页面 图片1 图片2 点击专业版下载 2.将下载的这个安装包解压安装...-xzf pycharm-professional-2019.1.3.tar.gz -C /opt/ 进入解压后的bin目录中 cd /opt/pycharm-2019.1.3/bin 开始安装.../pycharm.sh 安装pycharm 2019 完成 二、Ubuntu18.04中创建Pycharm的快捷方式 1.终端进入此路径:cd /usr/share/applications 2....Terminal=false Startup WMClass=jetbrains-pycharm 5.编辑完毕,保存并退出后,修改文件权限: chmod u+x pycharm.desktop 6.系统搜索处输入

    2.3K30

    完结撒花 | 全网稀有的Ambari自定义服务集成实战(全)

    ,支持的告警类型有:port、web、script 等支持快速链接,对于有 web 界面的服务,我们可以直接点击按钮跳转到 web 地址支持自定义服务指标数据的采集,并展示 Ambari 界面上服务仪表板增强...,为服务增加主题文件,使 Ambari 的服务界面更优美支持设置服务组件的安装启动顺序,可以解决统一部署服务时,组件执行顺序错乱的痛点进阶功能:自定义 stack 栈,将 HDP 替换为你想要的名字将...然后还需要掌握你要集成服务的手动安装流程,比如集成 Apache Zookeeper 服务,你需要先知道 Apache Zookeeper 服务是如何手动安装部署的。...等掌握了这个以后,再利用我们课程中讲到的 Ambari 集成服务的知识,就可以实现目的了。...又鉴于目前网上关于 Ambari 自定义服务集成的资料非常稀少,很多都是 Ambari 安装部署的资料,所以为了降低学习成本,提高学习效率,建议朋友们付费报名,提高学习效率,在学习过程中遇到问题也可以群里

    1.7K40

    FAQ系列之CDP PvC Base

    我有一个使用 CDH 5.13 - 5.16 和 CM 6.3 的客户,我可以迁移到 CDP Private Cloud Base ?...我有一个使用 HDP2.6x 的客户,我可以迁移到 CDP Private Cloud Base ? 是的,您可以迁移或升级到 CDP Private Cloud Base 7.1。...使用经典的HDP2.6.5 客户将升级 Ambari,然后将 Cloudera Run Time 安装到 7.1。完成后,集群管理器将切换到 Cloudera Manager。...使用经典的HDP3 客户将升级 Ambari,然后将 Cloudera Run Time 安装到 7.1。完成后,集群管理器将切换到 Cloudera Manager。...推荐的路径是使用 Apache Nifi,但是,如果仍然需要 Flume 并得到客户的坚持,它可以没有支持的情况下运行,或者请 Cloudera PS 寻求帮助。 Pig的支持是什么?

    1.1K40

    hdp 不更新了,有没有办法将 Apache Hadoop 代替 hdp 并集成到 Ambari 中呢?

    hdp 不会有新版本了,这意味着不久的将来,hdp 就会由于版本太低被抛弃,所以一些自研大数据平台产品的公司,急需一个方案来解决 hdp 版本不更新的问题。...所以我推荐的方案是 Ambari 集成 Apache Hadoop 服务来代替 hdp,甚至我们可以创建一个新的 stack 栈,把 hdp 改名。...Ambari 集成 Apache Hadoop 服务可是一个很复杂,难度高的工作呢!你如果要集成 Apache Hadoop,你需要掌握 Apache Hadoop 各服务的手动安装部署细节。...另外,我们不需要从 0 开始写集成 Apache Hadoop 的代码,可以借鉴 Ambari 集成 hdp 各服务的源码,基于 hdp 集成服务源码二次修改,改成部署 Apache Hadoop 服务的逻辑...各组件升级指定版本 将 HDP 替换为 Apache Hadoop 理论上来说,任何服务都可以集成到 Ambari,实现页面可视化安装部署,非常方便。

    3.4K40

    0481-如何从HDP2.6.5原地升级到CDH6.0.1

    安装成功后直接登录Cloudera Manager。 ? 5 安装CDH 该步骤略过。如何安装CDH依旧可以参考Fayson之前的文章《如何在Redhat7.4安装CDH6.0》。...原地迁移到CDH5.16.1》 6 组件升级 1.根据上线章节完成安装CDH后启动各项服务时依旧会报错如下 ?...9 HBase升级 1.首先我们将HBase原始来自HDP的数据HDFS备份一下: [root@ip-172-31-4-109 ~]# hadoop fs -mkdir /hbase_bak [root...1.建议在做平台迁移之前,首先需要禁用掉HDFS的HA,主要是为了移除HDFS服务对Zookeeper的依赖,这样你迁移到新平台后,Zookeeper可以重新安装而且不用额外配置。...12.我们知道HDP中建议使用的Hive表的文件是ORC,而在CDH中使用的是Parquet,这里存在以前的ORC的表CDH中不能正常使用的情况,比如Impala不能运行,所以最终你可能需要将ORC表转化为

    1.4K20

    五千字介绍 | 全网稀有的Ambari自定义服务集成实战(全)

    ,并展示 Ambari 界面上 服务仪表板增强,为服务增加主题文件,使 Ambari 的服务界面更优美 支持设置服务组件的安装启动顺序,可以解决统一部署服务时,组件执行顺序错乱的痛点 ‍进阶功能:...自定义stack栈,将HDP替换为你想要的名字 将hdp组件全部替换为Apache hadoop 除了解决上述痛点以外,本课程还提供了常见问题的解决办法,比如: 日志打印。...笔记已放在知识星球精华帖中,在这里面,还可以留存我们学习讨论的疑难问题,方便同学们的查阅,这就很棒!...等掌握了这个以后,再利用我们课程中讲到的 Ambari 集成服务的知识,就可以实现目标了。...又鉴于目前网上关于 Ambari 自定义服务集成的资料非常稀少,很多都是 Ambari 安装部署的资料,所以为了降低学习成本,提高学习效率,建议朋友们付费学习,提高学习效率,在学习过程中遇到问题也可以群里

    1K30

    Apache Kylin-2.6安装部署

    大数据平台安装部署Kylin,大数据平台的安装部署参考博主的其他文章 2.2 安装部署 # 1.上传编译好的kylin安装包并解压 [admin@hdp01 apps]$ tar -zxvf apache-kylin...-2.6.6-bin.tar.gz [admin@hdp01 apps]$ mv apache-kylin-2.6.6-bin kylin-2.6.6 # 2.安装Spark的两个jar包 # HDP3.1...中安装部署的Spark中缺少Kylin需要使用的两个jar包,这里下载开源版spark,获取这两个jar包 [admin@hdp01 apps]$ wget http://archive.apache.org...Kylin入门使用 Kylin官网提供了入门案例,其中5张表的信息如下: 表名 类型 数据量 描述 kylin_account 维表 10000 账户表,买家卖家都在这里,一个用户既可以是买家也可以是买家...上面的复杂查询耗时0.56s,我们Hive中测试一下: 0: jdbc:hive2://hdp02:2181,hdp03:2181,hdp04:2> select part_dt, sum(price

    1K30

    Spark Core入门1【Spark集群安装、高可用、任务执行流程、使用ScalaJavaLambda编写Spark WordCount】

    比如,Spark可以使用Hadoop的YARN和Apache Mesos作为它的资源管理和调度器,并且可以处理所有Hadoop支持的数据,包括HDFS、HBase和Cassandra等。...二、Spark集群安装 2.1   下载spark (1)从spark官方下载spark安装包 (2)上传spark安装包到Linux上 (3)解压安装包到指定位置 tar -zxvf spark-2.3.3...集群规划:hdp-01,hdp-04是Master;hdp-02、hdp-03是Worker 安装配置zk集群,并启动zk集群 停止spark所有服务,修改配置文件spark-env.sh,该配置文件中删掉...配置文件内容指定worker节点 2.hdp-01上执行sbin/start-all.sh脚本,后hdp-04上执行sbin/start-master.sh启动第二个Master【意味着只hdp...我们上文写Spark程序的时候我并没有指定以后生成多少个结果文件?那么为什么最终是三个结果文件呢?

    1.5K30
    领券