Loading [MathJax]/jax/output/CommonHTML/config.js
部署DeepSeek模型,进群交流最in玩法!
立即加群
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >如此简单的Flex拖动效果

如此简单的Flex拖动效果

作者头像
用户3135539
发布于 2018-09-12 03:40:29
发布于 2018-09-12 03:40:29
5910
举报
文章被收录于专栏:

<mx:Panel title="Select activities" layout="horizontal">

        <mx:VBox width="50%">

            <mx:Label text="Available activities"/>

            <mx:List

                id="srclist" width="100%" height="100"

                allowMultipleSelection="true"                

                dragEnabled="true"

                dropEnabled="true"

                dragMoveEnabled="true"

            />

        </mx:VBox>

        <mx:VBox width="50%">

            <mx:Label text="Activities I enjoy"/>

            <mx:List  

                id="destlist" width="100%" height="100"

                dropEnabled="true"

                dragEnabled="true"

                allowMultipleSelection="true"

                dragMoveEnabled="true"

            />

        </mx:VBox>

    </mx:Panel>

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2006-08-09 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
暂无评论
推荐阅读
编辑精选文章
换一批
一文了解函数式查询优化器Spark SQL Catalyst
记录一下个人对sparkSql的catalyst这个函数式的可扩展的查询优化器的理解,目录如下:
大数据真好玩
2020/06/03
3.1K0
SparkSql的Catalyst之图解简易版
一,基本介绍 一言不合就上图。 由上图可以看出Catalyst的作用尤为重要。MLPipelines Structured Streaming,GraphFrames都是基于DataFrame和Dat
Spark学习技巧
2018/01/30
1.1K0
SparkSql的Catalyst之图解简易版
[Spark SQL] 主要执行流程
SparkSql的第一件事就是把SQLText解析成语法树,这棵树包含了很多节点对象,节点可以有特定的数据类型,同时可以有0个或者多个子节点,节点在SparkSQL中的表现形式为TreeNode对象。举个实际的例子:
UFO
2018/08/29
1.8K0
Spark SQL 整体介绍
sparksession rdd sparkcontext sparksql sqlcontent dstream streammingcontext hivesql hivecontext
Freedom123
2024/03/29
1190
Spark SQL 整体介绍
[Spark SQL] 源码解析之Parser
Parser就是将SQL字符串切分成一个个Token,再根据一定语义规则解析为一棵语法树。我们写的sql语句只是一个字符串而已,首先需要将其通过词法解析和语法解析生成语法树,Spark1.x版本使用的是scala原生的parser语法解析器,从2.x后改用的是第三方语法解析工具ANTLR4, 在性能上有了较大的提升。
UFO
2018/08/29
2.5K0
Spark SQL底层执行流程详解(好文收藏)
一、Apache Spark 二、Spark SQL发展历程 三、Spark SQL底层执行原理 四、Catalyst 的两大优化
五分钟学大数据
2022/05/22
4.9K0
Spark SQL底层执行流程详解(好文收藏)
Spark系列 - (3) Spark SQL
Hive:Hadoop刚开始出来的时候,使用的是hadoop自带的分布式计算系统 MapReduce,但是MapReduce的使用难度较大,所以就开发了Hive。Hive的出现解决了MapReduce的使用难度较大的问题,Hive的运行原理是将HQL语句经过语法解析、逻辑计划、物理计划转化成MapReduce程序执行。
码老思
2023/10/19
6620
Spark系列 - (3) Spark SQL
简单回答:SparkSQL数据抽象和SparkSQL底层执行过程
就易用性而言,对比传统的MapReduce API,Spark的RDD API有了数量级的飞跃并不为过。然而,对于没有MapReduce和函数式编程经验的新手来说,RDD API仍然存在着一定的门槛。
大数据真好玩
2021/05/28
2K0
简单回答:SparkSQL数据抽象和SparkSQL底层执行过程
2021年大数据Spark(五十四):扩展阅读  SparkSQL底层如何执行
和 RDD 不同, SparkSQL 的 Dataset 和 SQL 并不是直接生成计划交给集群执行, 而是经过了一个叫做 Catalyst 的优化器, 这个优化器能够自动帮助开发者优化代码
Lansonli
2021/10/11
5820
SparkSql源码成神之路
快来加入我的源码学习社群吧,在社群的长期陪伴下,解决你在学习路上遇到的点点滴滴的问题~~
数据仓库践行者
2022/11/24
1.1K0
SparkSql源码成神之路
【Spark重点难点07】SparkSQL YYDS(加餐)!
Spark发展到今天,Spark SQL的方式已经是官方推荐的开发方式了。在今年的Spark 3.0大版本发布中,Spark SQL的优化占比将近50%;而像PySpark、Mllib 和 Streaming的优化占比都不超过10%,Graph的占比几乎可以忽略不计。
王知无-import_bigdata
2021/12/22
7910
【Spark重点难点07】SparkSQL YYDS(加餐)!
Spark SQL | Spark,从入门到精通
欢迎阅读美图数据技术团队的「Spark,从入门到精通」系列文章,本系列文章将由浅入深为大家介绍 Spark,从框架入门到底层架构的实现,相信总有一种姿势适合你。
美图数据技术团队
2019/04/19
2.1K0
Spark SQL | Spark,从入门到精通
在所有Spark模块中,我愿称SparkSQL为最强!
我们之前已经学习过了《我们在学习Spark的时候,到底在学习什么?》,这其中有一个关于SQL的重要模块:SparkSQL。
王知无-import_bigdata
2021/07/30
1.8K0
初识 Spark SQL | 20张图详解 Spark SQL 运行原理及数据抽象
不管是做平台的,还是做应用的,都免不了跟 SQL 打交道。一句“SQL Boy”,虽然是大家的自嘲,但也能说明大数据工程师们跟 SQL 的关系之紧密。
数人之道
2022/03/28
11.4K0
初识 Spark SQL | 20张图详解 Spark SQL 运行原理及数据抽象
【Spark重点难点06】SparkSQL YYDS(中)!
在上节课中我们讲解了Spark SQL的来源,Spark DataFrame创建的方式以及常用的算子。这节课继续讲解Spark SQL中的Catalyst优化器和Tungsten,以及Spark SQL的Join策略选择。
王知无-import_bigdata
2021/12/16
7530
【Spark重点难点06】SparkSQL YYDS(中)!
《从0到1学习Spark》-- 初识Spark SQL
今天小强给大家介绍Spark SQL,小强的平时的开发中会经常使用Spark SQL进行数据分析查询操作,Spark SQL是整个Spark生态系统中最常用的组件。这也是为什么很多大公司使用Spark SQL作为大数据分析的关键组件之一。
程序员小强
2019/09/20
8180
《从0到1学习Spark》-- 初识Spark SQL
Spark CBO统计元数据
Statistics 统计信息,参考:org.apache.spark.sql.catalyst.plans.logical.Statistics
Yiwenwu
2024/04/27
3931
SparkSQL内核解析之逻辑计划
LogicalPlan的父类QueryPlan主要分为六个模块: – 输入输出 涉及QueryPlan内属性相关的输入输出 – 基本属性 QueryPlan内的基本属性 – 字符串 主要用于打印QueryPlan的树形结构信息 – 规范化 类似Expression中的规范化 – 表达式操作 – 约束 本质上也是数据过滤条件的一种,同样是表达式类型。通过显式的过滤条件推导约束
王知无-import_bigdata
2020/06/04
2.3K0
SQL处理流程与优化器 | 青训营笔记
一条SQL语句的处理流程包含**解析(Parser)、解析(Analyzer)、优化(Optimizer)、执行(Execution)**过程。
鳄鱼儿
2024/05/21
1320
SQL处理流程与优化器 | 青训营笔记
SparkSQL的解析详解
  SparkSQL继承自Hive的接口,由于hive是基于MapReduce进行计算的,在计算过程中大量的中间数据要落地于磁盘,从而消耗了大量的I/O,降低了运行的效率,从而基于内存运算的SparkSQL应运而生。
用户3003813
2018/09/06
8450
相关推荐
一文了解函数式查询优化器Spark SQL Catalyst
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档