首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Shark,Spark SQL,Spark上的Hive以及Apache Spark上的SQL的未来

随着Spark SQL和Apache Spark effort(HIVE-7292)上新Hive的引入,我们被问到了很多关于我们在这两个项目中的地位以及它们与Shark的关系。...SQLon Spark的未来 Shark 当Shark项目在3年前开始时,Hive(在MapReduce上)是SQL on Hadoop的唯一选择。...正是由于这个原因,我们正在结束Shark作为一个单独的项目的开发,并将所有的开发资源移动到Spark的一个新组件Spark SQL上。...有了将在Apache Spark 1.1.0中引入的功能,Spark SQL在TPC-DS性能上击败Shark几乎一个数量级。...我们很高兴与Hive社区合作并提供支持,为最终用户提供流畅的体验。 总之,我们坚信Spark SQL不仅是SQL的未来,而且还是在Spark上的结构化数据处理的未来。

1.4K20

Minikube-运行在笔记本上的Kubernetes集群

前言 Minikube是一个可以在本地电脑上运行Kubernetes的工具。...Minikube会在笔记本电脑中的虚拟机上运行一个单节点的Kubernetes集群,让用户能对Kubernetes进行体验或者在之上进行Kubernetes的日常开发。...Windows,MacOS和Linux系统上都可以安装Minikube,不过在安装前需要确认系统的版本已经支持虚拟化(一般只要不是太老的系统版本都支持虚拟化) kubectl 在电脑上安装Minikubne...前需要先安装kubectl,它是Kubernetes的命令行工具,可以使用kubectl部署应用程序,检查和管理集群资源以及查看日志。...所以我准备尝试做一个简单的用Go语言写的应用程序的Docker镜像,把它放到本地电脑上的Kubernetes集群(Minikuebe)上运行。具体的步骤会在下周推送的文章里告诉大家,祝大家假期愉快!

1.1K30
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    如何在非安全的CDH集群中部署多用户JupyterHub服务并集成Spark2

    1.文档编写目的 ---- Fayson在前一篇文章《如何在非安全的CDH集群中部署Jupyter并集成Spark2》中介绍了Jupyter Notebook的部署与Spark2集成。...本篇文章Fayson主要介绍如何使用JupyterHub部署支持多用户的Jupyter Notebook服务并与集群的Spark2集成。 JupyterHub服务实现架构图: ?...3.Spark2集成 ---- Spark支持Sacla、Python、R语言,下面Fayson主要使用Apache Toree来实现Jupyter与CDH集群中的Spark2集成,通过Toree来生成集群...2.JupyterHub与Spark2集成时同样使用Apache Toree实现,与Jupyter公用一套kernel配置 3.在部署Jupyter的节点,需要安装Spark的Gateway角色 4.由于...JupyterHub是基于OS的PAM模块进行用户认证,所以我们的用户需要在OS上存在,如果需要使用OPenLDAP上的用户登录,则需要在JupyterHub服务所在服务器上安装OpenLDAP客户端使用

    3.5K20

    K8s 上的分布式存储集群搭建(Rookceph)

    本篇文章将手把手带你在 K8s 上搭建分布式存储集群(Rook/ceph) 1 环境准备 1.1 基础环境 3台配置一致的虚拟机: 虚拟机配置:4c 8g 虚拟机操作系统:cents7 硬盘:vda:...:v15.2.11 rook:1.6.3 1.3 前提 正常运行的多节点k8s集群,两个子节点及以上 rook的版本大于1.3,无法使用目录创建集群,要使用单独的裸盘进行创建,也就是创建一个新的磁盘,挂载到宿主机...2.2 ceph-rook 与k8s集成方式 Rook 是一个开源的cloud-native storage编排, 提供平台和框架;为各种存储解决方案提供平台、框架和支持,以便与云原生环境本地集成。...)中,如果不删除会影响下次集群部署,rook据说下个版本会增加k8s 本地存储调用的功能,就不会直接存在硬盘上了 rm -rf /var/lib/rook 4.4 擦除硬盘上的数据 创建osd时被写入了数据...,需要擦除,否则无法再次创建ceph集群,脚本中有各种硬盘的擦除命令,不需要全部执行成功,根据当前机器的硬盘情况确定。

    3.8K31

    我要在k8s集群上的jenkins部署动态slave

    上图图片官方解释意思就是jenkins分为master和node,master可以把任务分配给node来做,但是传统部署方式node节点是固定的,就一直在那占用资源,k8s动态slave把jenkins...的node封装在pod里了,node干完活pod就会自动销毁,不占用资源可以自动修复如果您的构建或代理损坏,您不再需要担心 — Jenkins 将删除运行状况不佳的实例并启动一个新实例。...负载分布均匀Kubernetes 可以很好地管理负载,它将确保你的 Jenkins 代理在最好的可用服务器中启动,从而使你的构建更快、更高效。到这里还不懂是吗,没事,我也没搞懂,直接开始操作!!!...你说你那怎么都是英文,你安装中文插件了吗,安装完重启jenkins了吗告诉你一个重启jenkins的方法(加一个restart的url)图片图片图片等着吧安装完重启后图片图片图片图片图片图片图片图片图片图片注意...:这个问题困扰我两天,我实在是懒得动了)新建一个自由风格任务图片图片简单执行一下就行了图片图片图片可以看到已经开始创建pod工作了,慢的那是自己下镜像呢图片这里两个容器的原因是jenkins-slave

    99710

    Spark 内存管理的前世今生(上)

    欢迎关注我的微信公众号:FunnyBigData 作为打着 “内存计算” 旗号出道的 Spark,内存管理是其非常重要的模块。...本文之所以取名为 "Spark 内存管理的前世今生" 是因为在 Spark 1.6 中引入了新的内存管理方案,而在之前一直使用旧方案。...管理的内存 系统预留的大小为:1 - spark.storage.memoryFraction - spark.shuffle.memoryFraction,默认为 0.2。...这是因为,这本来就是属于 execution 的内存并且通过踢除来实现归还实现上也不复杂 一个 task 能使用多少 execution 内存?...这样做是为了使得每个 task 使用的内存都能维持在 1/2*numActiveTasks ~ 1/numActiveTasks 范围内,使得在整体上能保持各个 task 资源占用比较均衡并且一定程度上允许需要更多资源的

    1.3K20

    JupyterLab:数据分析程序员的必备笔记神器

    Jupyter Notebook 中的内容列表扩展 人们总是会想到经典的 Jupyter 笔记本界面,但实际上,你可扩展它的各个模块。...Jupyter 内核 你可能已经很熟悉在 Jupyter 笔记本中使用 Python 语言了,其实你可以在其中运行很多语言:R、Julia、JavaScript、Octave、Scala/Spark、C...你可以写一个自己需要的认证器,因此 JupyterHub 可以覆盖各种使用场景。 生成器(Spawner) 如果使用一个可插拔的生成器,你可以用很多方法给每个用户提供 Jupyter 笔记本服务器。...你可能让他们从一个节点生成 Docker 容器、将它们连接到 Kubernetes 上、让它们使用你的 HPC 集群、或者使用你的 Hadoop 或者 Spark 集群、用 systemd 提供服务、或者直接将这些服务器视为不同的...服务 你有时希望给 JupyterHub 用户提供额外服务——在闲置时回收资源,或者让他们发布笔记本。你可以运行一个 JupyterHub Service 来提供这些服务。

    4K21

    只有想不到,「99」种扩展Jupyter功能的好方法

    Jupyter Notebook 中的内容列表扩展 人们总是会想到经典的 Jupyter 笔记本界面,但实际上,你可扩展它的各个模块。...Jupyter 内核 你可能已经很熟悉在 Jupyter 笔记本中使用 Python 语言了,其实你可以在其中运行很多语言:R、Julia、JavaScript、Octave、Scala/Spark、C...你可以写一个自己需要的认证器,因此 JupyterHub 可以覆盖各种使用场景。 生成器(Spawner) 如果使用一个可插拔的生成器,你可以用很多方法给每个用户提供 Jupyter 笔记本服务器。...你可能让他们从一个节点生成 Docker 容器、将它们连接到 Kubernetes 上、让它们使用你的 HPC 集群、或者使用你的 Hadoop 或者 Spark 集群、用 systemd 提供服务、或者直接将这些服务器视为不同的...服务 你有时希望给 JupyterHub 用户提供额外服务——在闲置时回收资源,或者让他们发布笔记本。你可以运行一个 JupyterHub Service 来提供这些服务。

    1.5K20

    只有想不到,「99」种扩展Jupyter功能的好方法

    Jupyter Notebook 中的内容列表扩展 人们总是会想到经典的 Jupyter 笔记本界面,但实际上,你可扩展它的各个模块。...Jupyter 内核 你可能已经很熟悉在 Jupyter 笔记本中使用 Python 语言了,其实你可以在其中运行很多语言:R、Julia、JavaScript、Octave、Scala/Spark、C...你可以写一个自己需要的认证器,因此 JupyterHub 可以覆盖各种使用场景。 生成器(Spawner) 如果使用一个可插拔的生成器,你可以用很多方法给每个用户提供 Jupyter 笔记本服务器。...你可能让他们从一个节点生成 Docker 容器、将它们连接到 Kubernetes 上、让它们使用你的 HPC 集群、或者使用你的 Hadoop 或者 Spark 集群、用 systemd 提供服务、或者直接将这些服务器视为不同的...服务 你有时希望给 JupyterHub 用户提供额外服务——在闲置时回收资源,或者让他们发布笔记本。你可以运行一个 JupyterHub Service 来提供这些服务。

    1.6K30

    只有想不到,「99」种扩展Jupyter功能的好方法

    Jupyter Notebook 中的内容列表扩展 人们总是会想到经典的 Jupyter 笔记本界面,但实际上,你可扩展它的各个模块。...Jupyter 内核 你可能已经很熟悉在 Jupyter 笔记本中使用 Python 语言了,其实你可以在其中运行很多语言:R、Julia、JavaScript、Octave、Scala/Spark、C...你可以写一个自己需要的认证器,因此 JupyterHub 可以覆盖各种使用场景。 生成器(Spawner) 如果使用一个可插拔的生成器,你可以用很多方法给每个用户提供 Jupyter 笔记本服务器。...你可能让他们从一个节点生成 Docker 容器、将它们连接到 Kubernetes 上、让它们使用你的 HPC 集群、或者使用你的 Hadoop 或者 Spark 集群、用 systemd 提供服务、或者直接将这些服务器视为不同的...服务 你有时希望给 JupyterHub 用户提供额外服务——在闲置时回收资源,或者让他们发布笔记本。你可以运行一个 JupyterHub Service 来提供这些服务。

    1.5K20

    Jupyter在美团民宿的应用实践

    Jupyter扩展方式 整个Jupyter项目的模块化和扩展性上都非常优秀。上图中的JupyterLab、Notebook Server、IPython、JupyterHub都是可扩展的。...由于我们需要实现Spark接入,对K8s的Pod有新的要求,所以基于KubeSpawner定制了一个Spawner来解决Spark连接集群的网络问题。...用户隔离环境:通过定制Authenticators + K8s Spawner实现容器级别环境隔离。 我们的方案是基于JupyterHub on K8s。...JupyterHub on K8s包括几个重要组成部分:Proxy、Hub、Kubernetes、用户容器(Jupyter Server Pod)、单点登录系统(SSO)。...除了Spark内置的Spark ML可以使用以外,Jupyter服务上还支持使用第三方X-on-Spark的算法,如XGBoost-on-Spark、LightGBM-on-Spark。

    2.5K21

    PageRank算法在spark上的简单实现

    一、实验环境 spark 1.5.0 二、PageRank算法简介(摘自《Spark快速大数据分析》) PageRank是执行多次连接的一个迭代算法,因此它是RDD分区操作的一个很好的用例...相邻页面如下所示: A:B C B:A C C:A B D D:C 四、测试代码 import org.apache.spark.HashPartitioner val links...在Spark中编写PageRank的主体相当简单:首先对当前的ranksRDD和静态的linkRDD进行一次join()操作,来获取每个页面ID对应的相邻页面列表和当前的排序值,然后使用flatMap创建出...实际上,linksRDD的字节数一般来说也会比ranks大得多,毕竟它包含每个页面的相邻页面列表(由页面ID组成),而不仅仅是一个Double值,因此这一优化相比PageRank的原始实现(例如普通的MapReduce...scala这语言是真的很简洁,大数据上的通用示例程序wordcount,用scala写一行搞定,如下图所示: var input = sc.textFile("/NOTICE.txt") input.flatMap

    1.5K20

    装在笔记本里的私有云环境:K8s 集群准备

    前置准备 因为一台笔记本的计算资源有限,想要顺滑的使用在一台设备中安装和使用 K8s 集群,其实还是有一些挑战的。为此我们需要做一些前置的准备,包括硬件资源分配、网络规划、软件准备。...图片 接着,我们来解决端口绑定,让我们能够通过在外部网络访问路由器的地址配合不同的端口,就能够实现管理路由器、ESXi、虚拟机,或者通过 Web 访问跑在虚拟机或者 K8s 集群上的服务的功能。...系统环境准备和 K8s 集群部署 虚拟机上的 Linux 系统安装,可以参考《在笔记本上搭建高性价比的 Linux 学习环境:基础篇》一文中的方式。...需要注意的是,K8s 集群的机器上不必安装和配置 Docker,其余内容完全跟着第二篇文章流程走即可。...轻量的标准化 K8s 集群搭建,可以参考《轻量高可用的 K8s 集群搭建方案:MicroK8s》,在此也就不过多赘述。

    1.2K00

    装在笔记本里的私有云环境:K8s 集群准备

    前置准备 因为一台笔记本的计算资源有限,想要顺滑的使用在一台设备中安装和使用 K8s 集群,其实还是有一些挑战的。为此我们需要做一些前置的准备,包括硬件资源分配、网络规划、软件准备。...允许外部访问路由管理后台 接着,我们来解决端口绑定,让我们能够通过在外部网络访问路由器的地址配合不同的端口,就能够实现管理路由器、ESXi、虚拟机,或者通过 Web 访问跑在虚拟机或者 K8s 集群上的服务的功能...系统环境准备和 K8s 集群部署 虚拟机上的 Linux 系统安装,可以参考《在笔记本上搭建高性价比的 Linux 学习环境:基础篇》[8]一文中的方式。...需要注意的是,K8s 集群的机器上不必安装和配置 Docker,其余内容完全跟着第二篇文章流程走即可。...轻量的标准化 K8s 集群搭建,可以参考《轻量高可用的 K8s 集群搭建方案:MicroK8s》[9],在此也就不过多赘述。

    1K20

    Hudi:Apache Hadoop上的增量处理框架

    Hudi数据集通过自定义的InputFormat兼容当前Hadoop生态系统,包括Apache Hive,Apache Parquet,Presto和Apache Spark,使得终端用户可以无缝的对接...实际使用的格式是可插拔的,但基本上需要以下特征: 扫描优化的柱状存储格式(ROFormat)。默认为Apache Parquet。 写优化的基于行的存储格式(WOFormat)。...摄取路径 Hudi是一个Spark库,目的是作为流摄取作业运行,并以小批量(通常是一到两分钟的顺序)摄取数据。...这里的联接可能在输入批处理大小、分区分布或分区中的文件数量上发生倾斜。它是通过在join键上执行范围分区和子分区来自动处理的,以避免Spark中对远程shuffle块的2GB限制。...最终,文件大小将增长到压缩后的底层块大小。 失败恢复 当由于间歇性错误导致摄取任务失败时,Spark会重新计算RDD并进行自动解析。

    1.3K10

    如何在K8s上设置生产级的EFK?(上)

    在Kubernetes集群上运行多个服务和应用程序时,统一的日志收集不可或缺,Elasticsearch、Filebeat和Kibana(EFK)堆栈是目前较受欢迎的日志收集解决方案。...在本教程中,我们将为部署在集群中的应用和集群本身设置生产级Kubernetes日志记录。将使用Elasticsearch作为日志后端,同时Elasticsearch的设置将具有极高的可扩展性和容错性。...HPA(Horizontal Pod Auto-scaler)部署在客户端节点上,以实现高负载下的自动弹性伸缩。...在数据节点Pod的情况下,我们要做的就是使用K8s Dashboard或GKE控制台增加副本的数量。新创建的数据节点将被自动添加到集群中,并开始复制其他节点的数据。...master节点Pod不需要自动扩展,因为它们只存储集群状态信息。如果你想添加更多的数据节点,请确保集群中的master节点数量不是偶数。

    2.7K20

    apache-commons家族的八兄弟(上)

    用过Java Collections API的朋友大概或多或少会同意我如下的划分:在Java的Collections API中,不狭义的区分语法上的接口和类,把它们都看作是类的话,大致我们可以发现三种主要的类别...list包中的方法Commons Collections在java.util.Map的基础上扩展了很多接口和类,比较有代表性的是BidiMap、MultiMap和LazyMap。...我们就可以很方便的往一个key上放数量不定的对象,也就实现了一对多。...理论上讲,使用Transformer也可以达到类似的效果,只要输出对象和输入对象是同一个对象就好,但是Closure接口定义的execute方法返回void,并且从效果和功能区分上,Closure可以更好的诠释对象处理或执行的意思...而事实上,ClosureUtils中也提供了一个asClosure方法包装一个现成的Transformer。

    47220

    如何使用Spark的local模式远程读取Hadoop集群数据

    我们在windows开发机上使用spark的local模式读取远程hadoop集群中的hdfs上的数据,这样的目的是方便快速调试,而不用每写一行代码或者一个方法,一个类文件都需要打包成jar上传到linux...上,再扔到正式的集群上进行测试,像功能性验证直接使用local模式来快速调测是非常方便的,当然功能测试之后,我们还需要打包成jar仍到集群上进行其他的验证比如jar包的依赖问题,这个在local模式是没法测的...,还有集群运行的调优参数,这些都可以在正式仍到集群时验证。...,本地加上是想让它远程读取方便调试使用,如果正式运行去掉uri在双namenode的时候可以自动兼容,不去反而成一个隐患了。...,就是读取mysql一个表的数据,写入另外一个mysql,这里跟MR没有关系,但是我依然可以用spark-sumbit提交,这时候是不会提交到YARN上的,但是程序会按普通程序运行,程序依赖的jar包,

    2.9K50

    通过 Mac 远程调试 iPhoneiPad 上的网页

    我们知道在 Mac/PC 上的浏览器都有 Web 检查器这类的工具(如最著名的 Firebug)对前端开发进行调试,而在 iPhone/iPad 由于限于屏幕的大小和触摸屏的使用习惯,直接对网页调试非常不方便...iOS 6 给 Safari 带来了远程的 Web 检查器工具(Remote Web Inspector),你可以通过模拟器或者真实的设备(通过 USB 连上 Mac)进行调试。...下面我讲讲详细的调试过程: 1. 要进行远程调试,首先要打开开启 iPhone/iPad 上的 Safari 的远程调试功能,“通过 设置 > Safari > 高级”开启: 2....最后把 iPhone 或者 iPad 通过数据线连上 Mac 电脑,打开桌面版的 Safari(目前 iOS 6 的 Safari 远程调试只支持通过 Mac 上的桌面版的 Safari 进行,Safari...另外它还支持触摸检查(Touch to inspect):激活检查器上的手型图标,就可以通过在 iPhone/iPad 上触摸,就能立即找到检查器对应的 DOM 元素。 ----

    1.8K20
    领券