首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Laravel 使用Excel导出的文件中,指定列数据格式为日期,方便后期的数据筛选操作

    背景 最近,后台运维要求导出的 Excel文件,对于时间的筛选,能满足年份、月份的选择 通过了解,发现: 先前导出的文件,默认列数据都是字符串(文本)格式 同时,因为用的是 Laravel-excel.../excel ①. laravel-excel2.1 版本下实现方式 参考技术文档:Laravel Excel2.1 - Column formatting 参考文章:laravel-excel导出的时候写入的日期格式数据怎么在...excel中正确显示成可以筛选的日期格式数据 提示 1....如果直接浏览器下载文件,需注意路径不能有 / return 'Test - MT'; } } 导出文件,参考截图如下: 附录 参考文章 laravel-excel导出的时候写入的日期格式数据怎么在...excel中正确显示成可以筛选的日期格式数据 Laravel Excel 3.1 导出表格详解(自定义sheet,合并单元格,设置样式,格式化列数据)

    12510

    Spark SQL,DataFrame以及 Datasets 编程指南 - For 2.0

    除了简单的列引用和表达式,Datasets 丰富的函数库还提供了包括字符串操作,日期操作,内容匹配操作等函数。...使用反射来推断模式 Spark SQL 的 Scala 接口支持将元素类型为 case class 的 RDD 自动转为 DataFrame。case class 定义了表的模式。...元素为 case class 的 RDD 可以转换成 DataFrame 并可以注册为表进而执行 sql 语句查询。...由于同一列的数据类型是一样的,可以使用更高效的压缩编码进一步节省存储空间 只读取需要的列,支持向量运算,能够获取更好的扫描性能 Spark SQL 支持读写 Parquet 格式数据。...任何在 SQL 查询的 FROM 子句中支持的形式都支持,比如,用括号包括的 SQL 子查询 driver 用来连接 JDBC url 的 JDBC driver 的类名 partitionColumn

    4K20

    Scala教程之:可扩展的scala

    Scala是扩展的,Scala提供了一种独特的语言机制来实现这种功能: 隐式类:允许给已有的类型添加扩展方法 字符串插值:可以让用户使用自定义的插值器进行扩展 隐式类 隐式类是在scala 2.10中引入的...在对应的作用域内,带有这个关键字的类的主构造函数可用于隐式转换。...implicit case class Baz(x: Int) // 错误! 字符串插值 所谓字符串插值就是将变量引用直接插入处理过的字面字符中。这是在scala2.10.0版本引入的。...当使用 f 插值器的时候,所有的变量引用都应当后跟一个printf-style格式的字符串,如%d。...自定义插值器 在Scala中,所有处理过的字符串字面值都进行了简单编码转换。

    1.2K10

    Apache Spark 2.2.0 中文文档 - Spark SQL, DataFrames and Datasets Guide | ApacheCN

    这些操作也参考了与强类型的Scala/Java Datasets中的”类型转换” 对应的”无类型转换” ....使用反射推断Schema Scala Java Python Spark SQL 的 Scala 接口支持自动转换一个包含 case classes 的 RDD 为 DataFrame.Case...在内存中缓存数据 Spark SQL 可以通过调用 spark.catalog.cacheTable("tableName") 或 dataFrame.cache() 来使用内存中的列格式来缓存表。...Dataset 类既提供了强类型转换操作(如 map,filter 以及 groupByKey)也提供了非强类型转换操作(如 select 和 groupBy)。...但是,这意味着如果你的列名中包含任何圆点,你现在必须避免使用反引号(如 table.column.with.dots.nested)。 在内存中的列存储分区修剪默认是开启的。

    26.1K80

    SparkSql的优化器-Catalyst

    输入行的一个列属性,例如:“x” C),Add(left: TreeNode, right: TreeNode):两个expressions求加 这些类可以用来构建一棵树。...规则(和Scala模式匹配一般)可以匹配相同转换调用中的多个模式,使其非常简洁,可以一次实现多个转换: tree.transform { case Add(Literal(c1), Literal(c2...2),将命名的属性(如“col”)映射到给定操作符的子节点的输入中。...,以便给它们一个唯一的ID(稍后允许对表达式进行优化(如 col = col) 4),在expressions中传播和强制类型:例如,我们不能知道1 + col的返回类型,直到我们解析col并且可能将其子表达式转换为兼容类型...我们使用Catalyst将表示SQL中的表达式的树转换为Scala代码的AST,以评估该表达式,然后编译并运行生成的代码。

    2.7K90

    geotrellis使用(十九)spray-json框架介绍

    三、spray-json使用        总体上使用spray-json需要先定义一个转换的协议(Protocol),该协议指定了如何在Scala对象与JOSN对象之间进行转换。...spary-json也提供了一些基础类型的转换协议,在DefaultJsonProtocol类中。...这里需要说明的是自定义的case类有几个属性这里X就为几,即调用相应的函数。如果case类还定义了伴随的object类,那么jsonFormatX函数就需要传入MyInt.apply。...3.3 包含泛型的类型转换        如果case类的属性中包含了泛型那么实现方法稍有不同,代码如下: case class MyList[A](name: String, items: List[...此处还需要说明的是在基本的case类中定义隐式变量的时候用的是implicit val,而此处用的是implicit def,个人理解是在scala中变量与函数的定义比较模糊,二者基本是等价的,但是此处返回值的类型是泛型

    1.3K70

    好未来测开一面,挺简单!(0428面试原题解析)

    HTTP 请求消息和响应消息的格式 HTTP 的报文结构可以分为两类:请求报文和响应报文。两者在结构上相似,都包含了起始行、头部和消息正文。...④、消息正文(可选) 请求的具体内容,如 POST 请求中的表单数据;GET 请求中没有消息正文。 说下 HTTP 响应报文结构?...知道 MySQL 的哪些函数,如 order by count() MySQL 支持很多内置函数,包括执行计算、格式转换、日期处理等。我说一些自己常用的(挑一些自己熟悉的)。...SUM(): 计算数值列的总和。 AVG(): 计算数值列的平均值。 COUNT(): 计算某列的行数。 MAX() 和 MIN(): 分别返回列中的最大值和最小值。...-- 格式化数字 SELECT FORMAT(1234567.8945, 2) AS formatted_number; 用过哪些类型转换函数? CAST(): 将一个值转换为指定的数据类型。

    19910

    SparkR:数据科学家的新利器

    (),unpersist() 数据保存:saveAsTextFile(),saveAsObjectFile() 常用的数据转换操作,如map(),flatMap(),mapPartitions()等 数据分组...Scala API 中RDD的每个分区的数据由iterator来表示和访问,而在SparkR RDD中,每个分区的数据用一个list来表示,应用到分区的转换操作,如mapPartitions(),接收到的分区数据是一个...为了更符合R用户的习惯,SparkR还支持用$、[]、[[]]操作符选择列,可以用$ 的语法来增加、修改和删除列 RDD map类操作:lapply()/map(),flatMap(),lapplyPartition...R JVM后端是Spark Core中的一个组件,提供了R解释器和JVM虚拟机之间的桥接功能,能够让R代码创建Java类的实例、调用Java对象的实例方法或者Java类的静态方法。...SparkR RDD API的执行依赖于Spark Core但运行在JVM上的Spark Core既无法识别R对象的类型和格式,又不能执行R的函数,因此如何在Spark的分布式计算核心的基础上实现SparkR

    4.1K20

    【Spark研究】用Apache Spark进行大数据处理第二部分:Spark SQL

    通过Spark SQL,可以针对不同格式的数据执行ETL操作(如JSON,Parquet,数据库)然后完成特定的查询操作。...数据源(Data Sources):随着数据源API的增加,Spark SQL可以便捷地处理以多种不同格式存储的结构化数据,如Parquet,JSON以及Apache Avro库。...通过调用将DataFrame的内容作为行RDD(RDD of Rows)返回的rdd方法,可以将DataFrame转换成RDD。...Spark SQL示例应用 在上一篇文章中,我们学习了如何在本地环境中安装Spark框架,如何启动Spark框架并用Spark Scala Shell与其交互。...Spark SQL是一个功能强大的库,组织中的非技术团队成员,如业务分析师和数据分析师,都可以用Spark SQL执行数据分析。

    3.3K100

    大数据技术之_28_电商推荐系统项目_02

    (按照商品的评分次数统计)数据结构是:productId, count     // 2、最近热门商品统计,即统计以月为单位每个商品的评分个数(需要将时间戳转换成 yyyyMM 格式后,按照商品的评分次数统计...// 创建一个日期格式化工具     val simpleDateFormat = new SimpleDateFormat("yyyyMM")     // 注册 UDF,将 时间戳 timestamp... 转化为年月格式 yyyyMM,注意:时间戳 timestamp 的单位是 秒,而日期格式化工具中 Date 需要的是 毫秒,且 format() 的结果是 字符串,需要转化为 Int 类型     spark.udf.register...    // 将 MongoDB 中的数据加载进来,并转换为 RDD,之后进行 map 遍历转换为 RDD(样例类是 spark mllib 中的 Rating),并缓存     val ratingRDD...// 因为 redis 操作返回的是 java 类,为了使用 map 操作需要引入转换类   import scala.collection.JavaConversions._   /**     *

    4.5K21

    Spark之【SparkSQL编程】系列(No2)——《DataSet概念入门以及与DataFrame的互操作》

    3.1 创建 1)创建一个样例类 scala> case class Person(name: String, age: Long) defined class Person 2)创建DataSet scala...DataSet SparkSQL能够自动将包含有case类的RDD转换成DataFrame,case类定义了table的结构,case类属性通过反射变成了表的列名。...[age: bigint, name: string] 2)创建一个样例类 scala> case class Person(name: String, age: Long) defined class...: bigint, name: string] 2.DataSet转换为DataFrame 1)创建一个样例类 scala> case class Person(name: String, age:...3)转换 val testDS = testDF.as[Coltest] 这种方法就是在给出每一列的类型后,使用as方法,转成Dataset,这在数据类型是DataFrame又需要针对各个字段处理时极为方便

    2.4K20

    打工人打工魂!销售分析案例来啦!

    销售记录表如下: 要求输出格式如下: 【解题思路】 此题主要考察 case when 行列的转换问题,即如下图所示: 通过case when 的转换,把列的项目转换成行字段,有两种方法供参考,其中第一个方法较为简洁...销售员原来为列里的一项,通过case when 转换为行的项目 select case when 销售员='小明' then 销售额 else 0 end as 小明日销额, case when 销售员...利用cese when语句先分别对销售员判断,得到每个销售员每日的销售金额,销售员原来为列里的一项,通过case when 转换为行的项目 select 日期, case when 销售员='小明' then...,在实际工作中,这个语句是经常用到的 case when then else end 另外,case when有两种格式:简单函数,搜索函数。...(date,format) date_format(date,format )函数为SQL中设置时间格式的函数,其中括号里的“date”是要设置的日期,“format” 是设置成规定日期/时间的格式。

    14930
    领券