_beta1》,但当安装CDH并分发Parcel时,浏览器端会报错Parcel的hash校验失败,具体错误如下图所示。...4.总结 ---- 1.对于离线安装CDH6 Beta,分发Parcel出现hash校验失败的问题,是因为在CM6中修复了一个bug,让它不再忽略由http服务器发送的“Content-Encoding...3.但是带来的另外一个问题就是CM服务不再认识CDH的parcel url地址。这个问题没办法破,可能跟CM数据库会写入parcel的url相关。或者说是Beta版本不完善的地方。...4.于是Fayson卸载了CM包括drop掉database,重新安装CM和CDH。这次CM可以认识CDH的parcel url了。...5.CDH6 beta的安装文档详细可以参考Fayson之前的文章《如何在Redhat7.4安装CDH6.0.0_beta1》 参考: http://community.cloudera.com/t5/
:性能和配置经验,作者开始研究 Parcel 简介 Parcel 是一个Web应用程序 打包器(bundler) ,与以往的开发人员使用的打包器有所不同。...安装 可以使用yarn 或 npm安装 Parcel yarn global add parcel-bundler yarn init -ynpm install -g parcel-bundler npm...如果你不需要parcel内置的服务区,只想用它的热替换,可以直接用观察模式,它不会启动web服务器。 parcel watch index.html 资源 Parcel 基于资源的。...,比 Parcel 要麻烦很多: 需要写一堆配置; 需要再安装一堆依赖; 不能简单的自动生成 HTML; Parcel 还需要时间去打磨 不支持 SourceMap :在开发模式下,Parcel 也不会输出...Parcel 出错:当你的项目依赖了一些 Npm 上的模块时,有些 Npm 模块会让 Parcel 运行错误; Parcel 需要为零配置付出代价 不守规矩的 node_module 不灵活的配置 Parcel
Parcel作为Android Binder通信的基础,从源码的角度,了解下parcel的特性,还是很有必要的。...static jlong android_os_Parcel_create(JNIEnv* env, jclass clazz) { Parcel* parcel = new Parcel();...//返回的是parcel指针的long值 return reinterpret_cast(parcel); } parcel*是指针类型,reinterpret_cast...*>(nativePtr); //nativePtr其实就是parcel指针的值,可以转成parcel指针 if (parcel !...* parcel = reinterpret_cast(nativePtr); //一样的,通过指针的long类型值转成parcel指针 if (parcel !
用Parcel去完成以上项目的要求,我只是专心去写项目页面所必须的代码,Parcel智能快速的帮我构建出了能正常运行的结果。...以下是Parcel让我心动的点: Parcel能做到无配置完成以上项目构建要求; Parcel内置了常见场景的构建方案及其依赖,无需再安装各种依赖; Parcel能以HTML为入口,自动检测和打包依赖资源...Parcel还需要时间去打磨 通过以上项目实践,发现Parcel目前有如下明显的缺点: 不支持SourceMap:在开发模式下,Parcel也不会输出SourceMap,目前只能去调试可读性极低的代码;...2.87s 生成环境输出JS文件大小 544K 274K 生成环境输出CSS文件大小 23K 23K 从以上数据可以看出:Parcel构建速度快,但Parcel输出文件大 导致Parcel构建速度快的原因和...我不是不鼓励大家使用Parcel,历史总需要先驱去推动,就像乔布斯义无反顾的引领了一个时代,我们也需要去实践Parcel,坑都是一个个填平的,所以我鼓励大家在一些个人小项目中使用Parcel。
Parcel 在英文中有两个意思,其一是名词,为包裹,小包的意思; 其二为动词,意为打包,扎包。邮寄快递中的包裹也用的是这个词。Android采用这个词来表示封装消息数据。...需要明确的是Parcel用来存放数据的是内存(RAM),而不是永久性介质(Nand等)。 Parcelable,定义了将数据写入Parcel,和从Parcel中读出的接口。... dest, int flags); //读取接口,目的是要从Parcel中构造一个实现了Parcelable的类的实例处理。...public interface Creator { public T createFromParcel(Parcel source); public T[] newArray(int...public static Parcel.Creator CREATOR = new Parcel.Creator();
parcel-repo (1)CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel (2)CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha1:...需改名为CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha (3)manifest.json [root@hadoop102 cm-5.12.1]# mv /opt/software.../CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha1 /opt/software/CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha...[root@hadoop102 module]# cp /opt/software/CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel.sha /opt/cloudera/parcel-repo.../ [root@hadoop102 module]# cp /opt/software/CDH-5.12.1-1.cdh5.12.1.p0.3-el6.parcel /opt/cloudera/parcel-repo
内容概述 1.部署CDK3.1.0的Parcel包 2.CM配置CDK的Parcel库地址 3.Kafka升级及功能测试 测试环境 1.CM5.15.0和CDH版本为5.14.2 2.RedHat7.3....fayson.com:9092,cdh02.fayson.com:9092,cdh03.fayson.com:9092,cdh04.fayson.com:9092 (可左右滑动) ?...3.部署Kafka的Parcel包 ---- 1.在Cloudera官网下载Kafka的Parcel包 Kafka下载地址: http://archive.cloudera.com/kafka/parcels...3.测试Kafka的Parcel是否部署成功 ? 4.CM中配置Kafka的Parcel库 ---- 1.登录CM,进入Parcel配置界面 ? 2.点击“配置” ?...5.Kafka3.1.0升级 ---- 1.下载、分配并激活Kafka3.1.0的Parcel包 下载Parcel包 ? 分配Parcel ?
-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel CDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel.sha1 manifest.json.../ 为了防止安装失败,本地 parcel 和 httpd 的parcel都备份一份 文件如下: CDH-6.3.2-1.cdh6.3.2.p0.1605554-el7.parcel CDH-6.3.2.../parcels/ http://cdh01/cdh6_parcel/ ?...4、配置parcel存储库目录 method 1: Repository Location -> 自定义存储库 -> http://cdh01/cdh6_parcel/ CDH and other...8、安装 CDH-6.3.2-1.cdh6.3.2.xxx.parcel agent安装成功之后安装parcel包到每台主机 Install Parcels:http://cdh01:7180/cmf/
测试环境 CDH6.0 Redhat7.4 采用root用户进行操作 自定义Parcel包 1.下载CDH6.0.1的Parcel,地址为: https://archive.cloudera.com/...cdh6/6.0.1/parcels/CDH-6.0.1-1.cdh6.0.1.p0.590678-el7.parcel (可左右滑动) ?.../opt/cloudera/parcel-repo [root@ip-172-31-6-83 cdh6.0.1]# mv CDH-6.0.1-1.cdh6.0.1.p0.590678-el7.parcel...:cloudera-scm CDH-6.0.1-1.cdh6.0.1.p0.590678-el7.parcel CDH-6.0.1-1.cdh6.0.1.p0.590678-el7.parcel.sha...[root@ip-172-31-6-83 parcel-repo]# chmod 640 CDH-6.0.1-1.cdh6.0.1.p0.590678-el7.parcel CDH-6.0.1-1.cdh6.0.1
2.下载Flink1.12的Parcel并部署到httpd服务的/var/www/html/flink目录下 [root@cdh1 csd]# cd /var/www/html/flink/ [root...662662978 May 31 13:03 FLINK-1.12-csa1.3.0.0-cdh7.1.6.0-297-11607198-el7.parcel -rw-r--r-- 1 root root...41 May 31 13:01 FLINK-1.12-csa1.3.0.0-cdh7.1.6.0-297-11607198-el7.parcel.sha1 -rw-r--r-- 1 root...点击“Parcel Repositories& Network Settings”菜单配置Flink的本地parcel库 ?...4.总结 1.在CDP上基于Parcel的方式安装Flink1.12与CDH5和CDH6集群下安装Kafka、Spark等服务方式一致。
测试环境 1.CM5.15.0和CDH版本5.14.2 2.Livy0.5.0 2.环境准备 ---- 在进行Livy的Parcel包生成前,我们需要准备打包Parcel脚本的运行环境,确保有公网环境,...3.打包Livy和Zeppelin的Parcel包 ---- 在GitHub上有提供脚本来打包Livy和Zeppelin的Parcel,地址如下: https://github.com/alexjbush.../livy_zeppelin_cdh_csd_parcels 接下来我们就利用上面的脚本来打包Livy和Zeppelin的Parcel,生成Livy和Zeppelin的Parcel包步骤: 下载Livy...@cdh05 livy_zeppelin_cdh_csd_parcels]# sh build.sh parcel (可左右滑动) ?...进行校验,并通过脚本为parcel生成manifest.json清单。
-cdh7.1.7.0-551-23013538-el7.parcel https://archive.cloudera.com/p/csa/1.6.2.0/parcels/FLINK-1.14.0-csa1.6.2.0...-cdh7.1.7.0-551-23013538-el7.parcel.sha1 https://archive.cloudera.com/p/csa/1.6.2.0/parcels/manifest.json...[root@cdh0001 csd]# netstat -lnpt|grep 7180 3.将下载好的Flink1.14 Parcel拷贝到httpd服务的/var/www/html目录下 [root... 1 root root 633304194 Apr 13 11:36 FLINK-1.14.0-csa1.6.2.0-cdh7.1.7.0-551-23013538-el7.parcel -rw-r-...-r-- 1 root root 41 Apr 13 11:15 FLINK-1.14.0-csa1.6.2.0-cdh7.1.7.0-551-23013538-el7.parcel.sha1
/6.0.0/parcels/ CDH-6.0.0-1.cdh6.0.0.p0.537114-el7.parcel CDH-6.0.0-1.cdh6.0.0.p0.537114-el7.parcel.sha256...cloudera/cm/schema/scmpreparedatabase.sh mysql -h 主节点ip --scm-host 主节点ip scm scm mkdir -p /opt/cloudera/parcel-repo...将CDH-6.0.0-1.cdh6.0.0.p0.537114-el7.parcel、CDH-6.0.0-1.cdh6.0.0.p0.537114-el7.parcel.sha256、manifest.json...复制到/opt/cloudera/parcel-repo 将CDH-6.0.0-1.cdh6.0.0.p0.537114-el7.parcel.sha256 重命名为 CDH-6.0.0-1.cdh6.0.0....p0.537114-el7.parcel.sha 在manifest.json文件中,找到对应版本的秘钥,复制到CDH-6.0.0-1.cdh6.0.0.p0.537114-el7.parcel.sha
本文是《CDH5部署三部曲》的第二篇,上一篇《CDH5部署三部曲之一:准备工作》将集群所有机器做了必要的设置,今天一起来完成CDH的部署、启动、设置等操作; 系列文章链接 《CDH5部署三部曲之一:准备工作.../parcel-repo 将前面下载好的三个文件放入目录/opt/cloudera/parcel-repo,这三个文件是:CDH-5.7.6-1.cdh5.7.6.p0.6-el7.parcel、manifest.json...、CDH-5.7.6-1.cdh5.7.6.p0.6-el7.parcel.sha1 将/opt/cloudera/parcel-repo目录下的CDH-5.7.6-1.cdh5.7.6.p0.6-el7....parcel.sha1文件改名为CDH-5.7.6-1.cdh5.7.6.p0.6-el7.parcel.sha(即:把后缀从sha1改成sha) 接下来初始化CM数据,登录mariadb: mysql...parcel设置,如下所示: ? 由于之前已经将parcel文件下载到master机器上,因此下载安装包的进度一开始就是百分之百,耐心等待后面的分配、解压、激活等步骤自动完成: ?
-5.16.2-1.cdh5.16.2.p0.8-el7.parcel CDH应用离线安装包 7 CDH-5.16.2-1.cdh5.16.2.p0.8-el7.parcel.sha CDH应用离线安装包...-5.16.2-1.cdh5.16.2.p0.8-el7.parcel:https://archive.cloudera.com/cdh5/parcels/5.16.2/CDH-5.16.2-1.cdh5.16.2....p0.8-el7.parcel CDH-5.16.2-1.cdh5.16.2.p0.8-el7.parcel.sha:https://archive.cloudera.com/cdh5/parcels.../5.16.2/CDH-5.16.2-1.cdh5.16.2.p0.8-el7.parcel.sha1 (下载完毕后,将扩展名从.sha1为.sha) apache-kylin-2.6.4-bin-cdh57...-5.16.2-1.cdh5.16.2.p0.8-el7.parcel、CDH-5.16.2-1.cdh5.16.2.p0.8-el7.parcel.sha、apache-kylin-2.6.4-bin-cdh57
CDH5.12.1安装spark2.1概述 在CDH5.12.1集群中,默认安装的spark是1.6版本,这里需要将其升级为spark2.1版本。....p0.120904-el6.parcel和SPARK2-2.1.0.cloudera1-1.cdh5.7.0.p0.120904-el6.parcel.sha1 到/opt/cloudera/parcel-repo....p0.120904-el6.parcel.sha1重命名为SPARK2-2.1.0.cloudera1-1.cdh5.7.0.p0.120904-el6.parcel.sha mv SPARK2-2.1.0....cloudera1-1.cdh5.7.0.p0.120904-el6.parcel.sha1 SPARK2-2.1.0.cloudera1-1.cdh5.7.0.p0.120904-el6.parcel.sha...页面操作 3.1 在cm首页点击Parcel,再点击检查新Parcel 3.2 点击分配 3.3 点击激活 3.4 回到首页点击添加服务 3.5 点击spark2继续 3.6 选择一组依赖关系
创建本地parcel仓库用于离线安装 # 主节点中创建parcel-repo仓库目录 mkdir -p /opt/cloudera/parcel-repo cp CDH-6.2.0-1.cdh6.2.0....p0.967373-el7.parcel /opt/cloudera/parcel-repo/ cp CDH-6.2.0-1.cdh6.2.0.p0.967373-el7.parcel.sha256.../opt/cloudera/parcel-repo/CDH-6.2.0-1.cdh6.2.0.p0.967373-el7.parcel.sha cp manifest.json /opt/cloudera.../parcel-repo/ chown cloudera-scm:cloudera-scm /opt/cloudera/parcel-repo # 如遇到安装parcel无法识别库 ,则重新生成sha...文件即可 sha1sum CDH-6.2.0-1.cdh6.2.0.p0.967373-el7.parcel| cut -d ' ' -f 1 > CDH-6.2.0-1.cdh6.2.0.p0.967373
/parcels/5.7/CDH-5.7.0-1.cdh5.7.0.p0.45-el6.parcel http://archive.cloudera.com/cdh5/parcels/5.7/CDH-...server_host=cdh1 # 将Parcel相关的三个文件拷贝到/opt/cloudera/parcel-repo cp CDH-5.7.0-1.cdh5.7.0.p0.45-el6.parcel.../opt/cloudera/parcel-repo/ cp CDH-5.7.0-1.cdh5.7.0.p0.45-el6.parcel.sha1 /opt/cloudera/parcel-repo/...cp manifest.json /opt/cloudera/parcel-repo/ # 改名 mv /opt/cloudera/parcel-repo/CDH-5.7.0-1.cdh5.7.0....p0.45-el6.parcel.sha1 /opt/cloudera/parcel-repo/CDH-5.7.0-1.cdh5.7.0.p0.45-el6.parcel.sha # 修改属主 chown
2.下载Flink1.9.1的Parcel并部署到httpd服务的/var/www/html/flink1.9.1目录下 [root@cdh4 flink1.9.1]# ll total 135664...-rw-r--r-- 1 root root 138867394 Feb 11 14:44 FLINK-1.9.1-csa1.1.0.0-cdh7.0.3.0-79-1753674-el7.parcel...-rw-r--r-- 1 root root 41 Feb 11 14:43 FLINK-1.9.1-csa1.1.0.0-cdh7.0.3.0-79-1753674-el7.parcel.sha...点击“Parcel Repositories & Network Settings”菜单配置Flink的本地parcel库 ?...总结 1.在CDP DC上基于Parcel的方式安装Flink1.9.1与CDH5和CDH6集群下安装Kafka、Spark等服务方式一致。
1.文档编写目的 ---- Cloudera前一段时间发布了CDH5.13版本,5.13的新功能可以参考前一篇文章《CDH5.13和CM5.13的新功能》,在CDH5.13版本以后支持CDSW的Parcel...安装,本篇文章就主要讲述如何通过CM使用Parcel包安装CDSW。...3.CM和CDH版本5.13.0 4.CDSW版本1.2.0 前置条件 1.CM和CDH已安装且正常运行 2.集群已部署Spark2 On Yarn模式 3.集群已部署Anaconda 4.集群已配置好...DNS服务并配置CDSW节点的泛域名解析 2.部署CDSW Parcel包 ---- 1.下载CDSW的Parcel,下载地址如下 http://archive.cloudera.com/cdsw/1/...的前置条件检查,具体可以参考《CDH安装前置准备》 CDSW所有节点需要加入CDH集群,并部署HDFS 、Yarn、Spark2的Gateway CDSW Master节点需要有多块DISK,磁盘空间大于
领取专属 10元无门槛券
手把手带您无忧上云