首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Apache Spark 2.2.0 中文文档 - Spark SQL, DataFrames and Datasets Guide | ApacheCN

当以另外的编程语言运行SQL 时, 查询结果将以 Dataset/DataFrame的形式返回.您也可以使用 命令行或者通过 JDBC/ODBC与 SQL 接口交互....您需要使用大写字母来引用 Spark SQL 中的这些名称。 性能调优 对于某些工作负载,可以通过缓存内存中的数据或打开一些实验选项来提高性能。...在内存中缓存数据 Spark SQL 可以通过调用 spark.catalog.cacheTable("tableName") 或 dataFrame.cache() 来使用内存中的列格式来缓存表。...内存缓存的配置可以使用 SparkSession 上的 setConf 方法或使用 SQL 运行 SET key=value 命令来完成。...对于 JSON 持久表(即表的元数据存储在 Hive Metastore),用户可以使用 REFRESH TABLE SQL 命令或 HiveContext 的 refreshTable 方法,把那些新文件列入到表中

26.1K80

spark2的SparkSession思考与总结2:SparkSession有哪些函数及作用是什么

conf函数 public RuntimeConfig conf() 运行spark 配置接口 通过这个接口用户可以设置和获取与spark sql相关的所有Spark 和Hadoop配置.当获取config...或则可以通过调用 Encoders上的静态方法来显式创建。 例子: [Scala] 纯文本查看 复制代码 ?...通常自动创建通过SparkSession的implicits 或则可以通过调用 Encoders上的静态方法来显式创建。...这个方法需要encoder (将T类型的JVM对象转换为内部Spark SQL表示形式), 或则可以通过调用 Encoders上的静态方法来显式创建。...table函数 public Dataset table(String tableName)返回指定的table/view作为DataFrame tableName是可以合格或则不合格的名称。

3.6K50
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Spark SQL,DataFrame以及 Datasets 编程指南 - For 2.0

    可以使用 SQL 语句和 Dataset API 来与 Spark SQL 模块交互。无论你使用哪种语言或 API 来执行计算,都会使用相同的引擎。...用来保存数据到永久表的 DataFrame 可以通过调用 SparkSession 的 table 方法来创建。...缓存数据至内存 Spark SQL 通过调用 spark.cacheTable 或 dataFrame.cache() 来将表以列式形式缓存到内存。...Spark SQL会只会缓存需要的列并且会进行压缩以减小内存消耗和 GC 压力。可以调用 spark.uncacheTable("tableName") 将表中内存中移除。...200 执行 join 和聚合操作时,shuffle 操作的分区数 分布式 SQL 引擎 使用 JDBC/ODBC 或命令行接口,Spark SQL 还可以作为一个分布式查询引擎。

    4K20

    Apache Spark 2.2.0 中文文档 - Structured Streaming 编程指南 | ApacheCN

    您可以使用 Scala , Java , Python 或 R 中的 Dataset/DataFrame API 来表示 streaming aggregations (流聚合), event-time...要实际执行此示例代码,您可以在您自己的 Spark 应用程序 编译代码,或者简单地 运行示例 一旦您下载了 Spark 。我们正在展示的是后者。...对于 ad-hoc use cases (特殊用例),您可以通过将 spark.sql.streaming.schemaInference 设置为 true 来重新启用 schema inference...相反,这些功能可以通过显式启动 streaming query 来完成(参见下一节)。 count() - 无法从 streaming Dataset 返回 single count 。...但是在 Complete Mode 模式下,重新启动的查询将重新创建完整的表。 Table name is the query name.

    5.3K60

    基于Apache Hudi + MinIO 构建流式数据湖

    通常系统使用 Apache Parquet 或 ORC 等开放文件格式将数据写入一次,并将其存储在高度可扩展的对象存储或分布式文件系统之上。Hudi 作为数据平面来摄取、转换和管理这些数据。...时间线存储在 .hoodie 文件夹中,在我们的例子中是存储桶。事件将保留在时间线上直到它们被删除。整个表和文件组都存在时间线,通过将增量日志应用于原始基本文件,可以重建文件组。...查询数据 让我们将 Hudi 数据加载到 DataFrame 中并运行示例查询。...每次写入 Hudi 表都会创建新的快照。将快照视为可用于时间旅行查询的表版本。尝试一些时间旅行查询(您必须更改时间戳以与您相关)。...请注意如果您运行这些命令,它们将改变 Hudi 表模式,使其与本教程不同。

    2.1K10

    Structured Streaming 编程指南

    你可以在Scala,Java,Python或R中使用 Dataset/DataFrame API 来表示流聚合,事件时间窗口(event-time windows),流到批处理连接(stream-to-batch...你也可以通过将spark.sql.streaming.schemaInference 设置为 true 来重新启用 schema 推断。...为启动此功能,在Spark 2.1中,引入了 watermark(水印),使引擎自动跟踪数据中的当前事件时间,并相应地清理旧状态。...它们是立即运行查询并返回结果的操作,这在流数据集上没有意义。相反,这些功能可以通过显式启动流式查询来完成。 count():无法从流式 Dataset 返回单个计数。...在失败或主动 shutdown 的情况下,可以恢复之前的查询进度和状态并从该处继续运行。

    2K20

    2021年大数据Spark(四十八):Structured Streaming 输出终端位置

    ---- 输出终端/位置 Structured Streaming 非常显式地提出了输入(Source)、执行(StreamExecution)、输出(Sink)的3个组件,并且在每个组件显式地做到fault-tolerant...,需要两个参数:微批次的输出数据DataFrame或Dataset、微批次的唯一ID。...使用foreachBatch函数输出时,以下几个注意事项: 1.重用现有的批处理数据源,可以在每个微批次的输出上使用批处理数据输出Output; 2.写入多个位置,如果要将流式查询的输出写入多个位置,则可以简单地多次写入输出...但是,每次写入尝试都会导致重新计算输出数据(包括可能重新读取输入数据)。要避免重新计算,您应该缓存cache输出 DataFrame/Dataset,将其写入多个位置,然后 uncache 。...3.应用其他DataFrame操作,流式DataFrame中不支持许多DataFrame和Dataset操作,使用foreachBatch可以在每个微批输出上应用其中一些操作,但是,必须自己解释执行该操作的端到端语义

    1.4K40

    Spark

    RDD通常通过Hadoop上的⽂件,即HDFS或者HIVE表来创建,还可以通过应⽤程序中的集合来创建;   4. RDD最重要的特性就是容错性,可以⾃动从节点失败中恢复过来。...如果需要使用多次则使用cache或persist操作切断依赖。 9 广播变量   Spark 广播变量是一种在集群中缓存只读变量的机制,可以有效地减少数据的传输量,提高作业执行的效率。...分布式缓存:广播变量会被序列化后缓存在 Executor 的内存中,可以在 Executor 上进行反序列化,而不需要重新传输数据。...DataFrame可以通过Spark SQL中的API进行操作,可以使用SQL语句进行查询。 DataSet是Spark 1.6版本中引入的新概念,是一种强类型的分布式数据集合。...在Spark on Hive中,Spark将Hive表作为DataFrame或Dataset进行处理,并使用Spark SQL执行Hive查询。

    33430

    Hudi的管理与运维

    管理员/运维人员可以通过以下方式了解Hudi数据集/管道 通过Admin CLI进行管理 Graphite指标 Hudi应用程序的Spark UI 本节简要介绍了每一种方法,并提供了有关故障排除的一些常规指南...| 注意 必须在其他写入/摄取程序没有运行的情况下执行以下命令。 有时,有必要从压缩计划中删除fileId以便加快或取消压缩操作。...如果发生部分故障,则压缩操作可能与文件切片的状态不一致。当您运行压缩验证时,您会注意到无效的压缩操作(如果有的话)。...以下元数据已被添加到每条记录中,可以通过标准Hadoop SQL引擎(Hive/Presto/Spark)检索,来更容易地诊断问题的严重性。...Spark故障 典型的upsert() DAG如下所示。请注意,Hudi客户端会缓存中间的RDD,以智能地并调整文件大小和Spark并行度。

    9K21

    基于Apache Hudi + MinIO 构建流式数据湖

    通常系统使用 Apache Parquet 或 ORC 等开放文件格式将数据写入一次,并将其存储在高度可扩展的对象存储或分布式文件系统之上。Hudi 作为数据平面来摄取、转换和管理这些数据。...时间线存储在 .hoodie 文件夹中,在我们的例子中是存储桶。事件将保留在时间线上直到它们被删除。整个表和文件组都存在时间线,通过将增量日志应用于原始基本文件,可以重建文件组。...查询数据 让我们将 Hudi 数据加载到 DataFrame 中并运行示例查询。...每次写入 Hudi 表都会创建新的快照。将快照视为可用于时间旅行查询的表版本。尝试一些时间旅行查询(您必须更改时间戳以与您相关)。...请注意如果您运行这些命令,它们将改变 Hudi 表模式,使其与本教程不同。

    1.6K20

    大数据技术Spark学习

    2.2 IDEA 创建 Spark SQL 程序 Spark SQL 在 IDEA 中程序的打包和运行方式都和 Spark Core 类似,Maven 依赖中需要添加新的依赖项:         SQL 可以通过 JDBC 从关系型数据库中读取数据的方式创建 DataFrame,通过对 DataFrame 一系列的计算后,还可以将数据再写回关系型数据库中。...JDBC 服务器作为一个独立的 Spark 驱动器程序运行,可以在多用户之间共享。任意一个客户端都可以在内存中缓存数据表,对表进行查询。集群的资源以及缓存数据都在所有用户之间共享。   ...connect jdbc:hive2://hadoop102:10000   在 Beeline 客户端中,你可以使用标准的 HiveQL 命令来创建、列举以及查询数据表。...Spark SQL CLI   Spark SQL CLI 可以很方便的在本地运行 Hive 元数据服务以及从命令行执行查询任务。

    5.3K60

    在所有Spark模块中,我愿称SparkSQL为最强!

    SparkSQL 在 1.6 时代,增加了一个新的API叫做 Dataset,Dataset 统一和结合了 SQL 的访问和命令式 API 的使用,这是一个划时代的进步。...在 Dataset 中可以轻易的做到使用 SQL 查询并且筛选数据,然后使用命令式 API 进行探索式分析。...而右侧的DataFrame却提供了详细的结构信息,使得Spark SQL可以清楚地知道该数据集中包含哪些列,每列的名称和类型各是什么。 DataFrame多了数据的结构信息,即schema。...可以把它当做数据库中的一张表来对待,DataFrame也是懒执行的。性能上比RDD要高,主要原因:优化的执行计划:查询计划通过Spark catalyst optimiser进行优化。...比如在foreach函数中,将RDD中所有数据写MySQL,那么如果是普通的foreach算子,就会一条数据一条数据地写,每次函数调用可能就会创建一个数据库连接,此时就势必会频繁地创建和销毁数据库连接,

    1.7K20

    重磅 | Delta Lake正式加入Linux基金会,重塑数据湖存储标准

    Delta Lake 还提供了强大的序列化隔离级别,允许工程师不断地对目录或表进行写操作,而用户可以不断地从相同的目录或表中读取数据。读取者将看到读操作开始时存在的最新快照。...如果 DataFrame 中有额外的列在表中不存在,那么该操作将抛出异常。Delta Lake 具有可以显式添加新列的 DDL 和自动更新模式的能力。...互斥:只有一个写入者能够在最终目的地创建(或重命名)文件。 一致性清单:一旦在目录中写入了一个文件,该目录未来的所有清单都必须返回该文件。 Delta Lake 仅在 HDFS 上提供所有这些保证。...import org.apache.spark.sql.SparkSession; import org.apache.spark.sql.Dataset; import org.apache.spark.sql.Row...,在创建 Delta 表的时候,生成了一个 json 文件,这个文件也是 Delta 的 transaction log,也就是事务日志,所以的事务相关操作都会记录到这个日志中,可以做 replay 使用

    98430

    CDP运营数据库 (COD) 中的事务支持

    在第二部分中,我们将通过分步示例演示如何在您的 COD 环境中使用事务。查看如何在 COD 中使用事务。...COD 中的事务支持概述 事务是数据库中一系列的一个或多个更改,必须按顺序完成或取消以确保完整性和一致性。 COD 中的事务支持使您能够执行复杂的分布式事务并运行原子跨行和跨表数据库操作。...这些步骤在附件 1中有所描述。 如何在不同的应用程序中使用事务 您可以在流式应用程序或 OLTP(在线事务处理)应用程序以及面向批处理的 Spark 应用程序中使用 COD 事务。...应用程序 如果与其他作业或流应用程序有任何冲突,您可以使用 Phoenix-Spark 连接器事务来重试 Spark 任务。...这些操作使用不同的工具以不同的方式执行。 在本节中,您可以找到流行的 SQL 开发工具(如DbVisualizer )的链接和示例片段。

    1.4K10

    Spark入门指南:从基础概念到实践应用全解析

    在部分分区数据丢失时,Spark可以通过这个依赖关系重新计算丢失的分区数据,而不是对RDD的所有分区进行重新计算。...它提供了一个称为DataFrame的编程抽象,并且可以充当分布式SQL查询引擎。 Spark SQL的特性 集成:无缝地将SQL查询与Spark程序混合。...Spark SQL允许将结构化数据作为Spark中的分布式数据集(RDD)进行查询,在Python,Scala和Java中集成了API。这种紧密的集成使得可以轻松地运行SQL查询以及复杂的分析算法。...最后,我们使用 show 方法来显示 DataFrame 的内容。 创建 DataFrame 在 Scala 中,可以通过以下几种方式创建 DataFrame: 从现有的 RDD 转换而来。...创建DataSet 在 Scala 中,可以通过以下几种方式创建 DataSet: 从现有的 RDD 转换而来。

    68041
    领券