文章背景:通过Printout函数,可以将Excel文件转换为pdf文件,但与此同时,该函数可能会通过ActivePrinter参数将默认打印机修改为Microsoft Print to...借助Application.ActivePrinter属性,一方面可以查询当前默认打印机的名称,另一方面,也可以指定默认打印机的名称。...As String Dim Path As String, path_saved As String, name_file As String '1 记录最开始的默认打印机...Application.ActivePrinter = Printer_original End Sub 该代码主要分为三步:(1)先记录当前默认打印机的名称,一般电脑默认连接的是实体打印机...;(2)借助Printout函数将指定的Excel文件转换为PDF文件,此时默认打印机的名称已经发生变化,转变成了Microsoft Print to PDF; (3)恢复默认的打印机,也就是第(1)步保存的打印机名称
在“共享”选项卡上选择“共享此打印机”。 如果需要,可编辑打印机的共享名称。你将使用此名称从辅助电脑连接到打印机。...在“添加打印机”对话框中,选择“按名称选择共享打印机”,然后输入主要电脑的计算机或设备名称,和使用以下其中一种格式的打印机共享名称:\\computername\printername http://computername...有关计算机或设备名称的详细信息,请参阅本主题中的“查找电脑名称”一节。默认情况下,你需要主要电脑的用户名和密码以访问该打印机。...在“添加设备”对话框中,选择“按名称选择共享打印机”,然后输入主要电脑的计算机或设备名称,和使用以下其中一种格式的打印机共享名称:\\computername\printername http://computername...在“文件和打印机共享”下,请选择“打开文件和打印机共享”。 查找电脑名称 你需要主要电脑的名称,也称为计算机名称或设备名称,以将辅助电脑连接到打印机。
添加打印机 具有该名称的端口已存在。 这是因为之前这么操作过,换一个端口即可 添加打印机 具有该名称的端口已存在 多余的端口也可以这么删除 打印服务器属性 删除多余端口
1、DataFrame逻辑运算 逻辑运算符号:> >= < <= == !
DataFrame是一种不可变的分布式数据集,这种数据集被组织成指定的列,类似于关系数据库中的表。...SchemaRDD作为Apache Spark 1.0版本中的实验性工作,它在Apache Spark 1.3版本中被命名为DataFrame。...对于熟悉Python pandas DataFrame或者R DataFrame的读者,Spark DataFrame是一个近似的概念,即允许用户轻松地使用结构化数据(如数据表)。...使用Spark DataFrame,Python开发人员可以利用一个简单的并且潜在地加快速度的抽象层。最初Spark中的Python速度慢的一个主要原因源自于Python子进程和JVM之间的通信层。...对于python DataFrame的用户,我们有一个在Scala DataFrame周围的Python包装器,Scala DataFrame避免了Python子进程/JVM的通信开销。
在spark-shell状态下查看sql内置函数: spark.sql("show functions").show(1000) 比如:SUBSTR(col...
.; SQLContext sqlContext = new SQLContext(sc); DataFrame df = sqlContext.read().json("hdfs://spark1:9000...JavaSparkContext sc = new JavaSparkContext(conf); SQLContext sqlContext = new SQLContext(sc); DataFrame
和Series一样,可以使用索引切片 对于列,切片是不行的(看来对于DF而言,还是有“行有序,列无序”的意思) 5.ix很灵活,不能的:两部分必须有内容,至少有: 列集合可以用切片方式,包括数字和名称...6.索引切片或者ix指定都可以获取行,对单行而言,有区别 对多行而言,ix也是DataFrame 7.三个属性 8.按条件过滤 貌似并不像很多网文写的,可以用.访问属性 9.复合条件的筛选 10....删除行 删除列 11.排序 12.遍历 数据的py文件 from pandas import Series,DataFrame import pandas as pd se=Series({'Ohio...35000,'Texas':71000,'Oregon':16000,'Uath':5000}) se1=Series([4,7,-5,3],index=['d','b','a','c']) df1=DataFrame
sparksql不止有sql语句,现在他还有Dataframe的API,Dataframe比写RDD要快。dataframe将非结构化数据schema化。...sparksql类比于hive可以发现,hive在mapreduce上做了一个框架,而sparksql是在spark core里的rdd里面多出来的一个框架,并且还多了dataframe这样的简便框架,...dataframe最终也是转换为RDD的操作 前提:打开spark—master和spark—slave(前面有讲过,我们用的是standalone模式,由master和worker去操作driver...(4)创建dataframe ? (5)查看结果 ? 可以见到dataframe可以将数据结构化,方便以后对数据的操作
DataFrame DataFrame是一种以RDD为基础的分布式数据集,类似于传统数据库中的二维表格。...truncat0 右对齐show(numRows: Int, truncate: Int, vertical: Boolean):vertical 如果设置为 true,则垂直打印输出行...传入String类型参数,得到DataFrame对象。...的前n行记录,得到一个新的DataFrame对象。...其他的就演示了 以上案例整理参考:https://blog.csdn.net/dabokele/article/details/52802150 更多API请参考Spark官网上面使用的是样例类,会自动将字段名称及字段类型与表中的字段进行对应
Category": 'A', "ID": 4, "Value": 33.87, "Truth": True} ] df = spark.createDataFrame(data) 分别打印...Schema 和 DataFrame,可以看到创建 DataFrame 时自动分析了每列数据的类型 df.printSchema() ''' root |-- Category: string (nullable...Pandas Dataframe,然后在保存为 csv 文件 # Convert a Pandas-on-Spark Dataframe into a Pandas Dataframe df.toPandas...ps_df = ps.DataFrame(range(10)) # Convert a Pandas-on-Spark Dataframe into a Pandas Dataframe pd_df...= ps_df.to_pandas() # Convert a Pandas Dataframe into a Pandas-on-Spark Dataframe ps_df = ps.from_pandas
mongodb取出json,利用python转成dataframe(dict-to-dataframe) 1、mongodb数据源结构: 2、输出结果: 3、python代码部分...db.gaode_pois_hotel_yunnan_extra_mid01.find({},{"_id":0,'name':1,'lng':1,'lat':1}).limit(10) #创建一个空的dataframe...df = pd.DataFrame(columns = ["_id", "name", "lng", "lat"]) for x in data2:...#dict转成dataframe,注意.T的运用 pd_data=pd.DataFrame.from_dict(x,orient='index').T
第二种方式,是通过编程接口来创建DataFrame,你可以在程序运行时动态构建一份元数据,然后将其应用到已经存在的RDD上。...fieldIndex("age"))); st.setName(v1.getString(v1.fieldIndex("name"))); return stu; } }); // 将数据collect回来,打印出来...Spark SQL会通过反射读取传递给case class的参数的名称,然后将其作为列名。...Integer.valueOf(lineSplited[2])); } }); // 第二步,动态构造元数据 // 比如说,id、name等,field的名称和类型...DataFrame studentDF = sqlContext.createDataFrame(studentRDD, structType); // 后面,就可以使用DataFrame了
列值)的形式构成的分布式数据集,按照列赋予不同名称,约等于关系数据库的数据表 A DataFrame is a Dataset organized into named columns....API操作 printSchema 打印Schema信息,以树形结构输出 import org.apache.spark.sql....() spark.stop() } } 打印结果 root |-- age: long (nullable = true) |-- name: string (nullable = true...(1) spark.stop() } } 打印结果 +----+-------+ | age| name| +----+-------+ |null|Michael| +----+---...(peopleDF.col("age")).count().show() spark.stop() } } 打印结果 +----+-----+ | age|count| +----+----
Here are the days: Mon Tue Wed Thu Fri Sat Sun Here are the months: Jan Feb ...
Spark DataFrame基础操作 创建SparkSession和SparkContext val spark = SparkSession.builder.master("local").getOrCreate...() val sc = spark.sparkContext 从数组创建DataFrame spark.range(1000).toDF("number").show() 指定Schema创建DataFrame...StructField("phone", IntegerType))) spark.createDataFrame(sc.makeRDD(data), schema).show() 从JSON文件加载DataFrame...30,"phone":331122} */ spark.read.format("json").load("/Users/tobe/temp2/data.json").show() 从CSV文件加载DataFrame...C,30,331122 */ spark.read.option("header", true).csv("/Users/tobe/temp2/data.csv").show() RDD转DataFrame
DataFrame 本片将介绍Spark RDD的限制以及DataFrame(DF)如何克服这些限制,从如何创建DataFrame,到DF的各种特性,以及如何优化执行计划。...DataFrame背后的思想是允许处理大量结构化数据。DataFrame包含带schema的行。schema是数据结构的说明。...RDD和DataFrame的共同特征是不可性、内存运行、弹性、分布式计算能力。它允许用户将结构强加到分布式数据集合上。因此提供了更高层次的抽象。我们可以从不同的数据源构建DataFrame。...DataFrame的应用程序编程接口(api)可以在各种语言中使用。示例包括Scala、Java、Python和R。在Scala和Java中,我们都将DataFrame表示为行数据集。...Spark SQL能对多种数据源使用DataFrame接口。使用SparkSQL DataFrame 可以创建临时视图,然后我们可以在视图上运行sql查询。 6.
如下图所示,基本上可以把DataFrame看成是Excel的表格形态: ? 接下来我们根据创建DataFrame的基本要求将data、index、columns这三个参数准备就绪。...的方法中,就可以生成DataFrame格式的股票交易数据。...此处以ndarray组成的字典形式创建DataFrame,字典每个键所对应的ndarray数组分别成为DataFrame的一列,共享同一个 index ,例程如下所示: df_stock = pd.DataFrame...({'close': stock_data, 'price range': pct_change}, index=dd) print(f'股价交易数据:\n {df_stock.head()}')#打印前...以上就是Pandas的核心—DataFrame数据结构的生成讲解。
二、DataFrame & DataSet 2.1 DataFrame 为了支持结构化数据的处理,Spark SQL 提供了新的数据结构 DataFrame。...由于 Spark SQL 支持多种语言的开发,所以每种语言都定义了 DataFrame 的抽象,主要如下: 语言主要抽象ScalaDataset[T] & DataFrame (Dataset[Row]...DataFrame 和 RDDs 应该如何选择?...DataFrame 和 Dataset 主要区别在于: 在 DataFrame 中,当你调用了 API 之外的函数,编译器就会报错,但如果你使用了一个不存在的字段名字,编译器依然无法发现。...,这是因为 DataFrame 是 Untyped 的。
mongodb取出json,利用python转成dataframe(dict-to-dataframe) 1、mongodb数据源结构: ? 2、输出结果: ?...db.gaode_pois_hotel_yunnan_extra_mid01.find({},{"_id":0,'name':1,'lng':1,'lat':1}).limit(10) #创建一个空的dataframe...df = pd.DataFrame(columns = ["_id", "name", "lng", "lat"]) for x in data2:...#dict转成dataframe,注意.T的运用 pd_data=pd.DataFrame.from_dict(x,orient='index').T
领取专属 10元无门槛券
手把手带您无忧上云