腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
如何
在
Pyspark
中使
用
Scala
类
、
、
、
、
我已经搜索了一段时间了,如果有任何方法
在
Pyspark
中使
用一个
Pyspark
类,我还没有找到任何关于这个主题
的
文档或指南。假设我
在
Scala
中
创建
了一个简单
的
类,它使用了一些apache-spark库,如下所示: def exe():
D
浏览 3
提问于2016-03-15
得票数 29
回答已采纳
1
回答
如何
在
数据库
PySpark
中使
用在
Scala
中
创建
的
DataFrame
、
、
、
我
的
Databricks笔记本使用
的
是Python。notebook
中
的
一些代码是用
Scala
编写
的
(使用%
scala
),其中之一是用于
创建
数据帧。如果我再次使用Python/
PySpark
(默认模式),我
如何
使用/访问这个
在
scala
模式下
创建
的
dataframe
?谢谢
浏览 14
提问于2019-11-17
得票数 1
回答已采纳
1
回答
在
Scala
Spark和
PySpark
之间传递sparkSession
、
、
、
我
的
要求是从现有的
PySpark
程序
中
调用一个"Spark
Scala
“函数。将
PySpark
程序
中
创建
的
sparkSession传递给
Scala
函数
的
最佳方式是什么?我将我
的
scala
jar传递给
Pyspark
,如下所示。spark-submit --jars ScalaExample-0.1.jar
pyspark
_call_<e
浏览 59
提问于2019-10-01
得票数 4
3
回答
将
SCALA
=== (三等号)转换为用于火花列
的
Python
、
、
、
我
在
Scala
中有一段用于Python转换
的
代码 searchTermsInputTable:
DataFrame
String): String = { countryCodes.split(",").map(cc => s":G:$cc:&q
浏览 3
提问于2022-03-18
得票数 0
5
回答
DataFrame
对象没有属性“col”
在
“火花:最终指南”
中
,它说: df.col("count") 但是,当我
在
包含列count
的
dataframe
上运行后
的
代码时,就会得到错误'
DataFrame<
浏览 2
提问于2018-08-12
得票数 9
2
回答
将
Pyspark
的
Dataframe
转换为
scala
数据帧
、
、
、
、
在
Databricks下,我使用此命令从Python
Dataframe
创建
dataframe
%python wordsDF = sqlContext.createDataFrame(pandasDF我想将数据发送回Azure Datalake Gen2,并且我想使用
Scala
dataframe
。
如何
从
Pyspark
返回/转换
Dataframe
到
scala
Dataframe
?
浏览 36
提问于2021-10-05
得票数 0
1
回答
用笔记本将数据从Azure Synapse
数据库
加载到
DataFrame
中
、
我试图从Azure Synapse DW中加载数据到一个数据文件
中
,如图像所示。
浏览 2
提问于2021-08-17
得票数 1
回答已采纳
2
回答
可以从
Scala
调用python函数吗?
、
、
、
、
我正在
创建
一个火花作业,它要求使用用python编写
的
函数将列添加到
dataframe
中
。其余
的
处理是使用
Scala
完成
的
。我已经找到了
如何
从
pyspark
调用Java/
Scala
函数
的
示例: 我发现用另一种方式发送数据
的
唯一例子是使用pipe。我是否可以将整个
dataframe
发送到python函数,让函数操作数据并添加其他列,然后
浏览 3
提问于2017-09-15
得票数 5
1
回答
如何
在
Pyspark
中使
用
Scala
函数?
、
、
、
我已经寻找了一段时间,看是否有任何方法可以
在
Pyspark
中使
用
Scala
函数,但我还没有找到关于这个主题
的
任何文档或指南。我
的
目标是使用之前人们定义
的
scala
函数appendPrvlngFields隐式函数。然后我想在python环境
中使
用这个函数,而不是重新定义它,而是通过一些类型
的
方式,比如注册
scala
函数 假设我
在
Scala
中
浏览 0
提问于2020-12-24
得票数 0
2
回答
在
熊猫(python)
中
,能不能将星星之火(
scala
)转换成数据(Python)
、
、
、
Dataframe
是使用
scala
创建
的
。spark.createDataFrame( spark.sparkContext.parallelize(someData), StructType(someSchema) ) 我想把这个转换成Pandas
Dataframe
PySpark
提供了.toPandas()来将火花数据转换成熊猫,但是
scala
(我可以找到)并没有对应
的
数据。
浏览 1
提问于2020-04-05
得票数 0
回答已采纳
1
回答
Apache Spark
如何
支持不同语言
的
API
、
我一直想知道像Apache Spark这样支持不同语言API
的
系统
的
高级架构。例如,Spark支持
Scala
、Python和Java
中
的
API。 尽管该软件是用
Scala
编写
的
,但它支持多语言API。
如何
在编程层面上做到这一点?有人能解释一下这样
的
系统
的
高层架构吗?
浏览 0
提问于2016-03-13
得票数 3
2
回答
StructType
在
PySpark
中
的
映射函数
、
、
、
、
_1
的
两个字段都是StringType。所以我
创建
了上面的StructType,这样我就可以用它来键入
dataframe
_1
中
的
字段。我可以
在
Scala
中
这样做: col => s"CAST ( ${col.name} As ${col.dataType.sql}) ${col.name}"我无
浏览 6
提问于2022-08-06
得票数 1
1
回答
Spark
在
Scala
中
打印我
的
DataFrame
形状
、
、
、
Pandas中有一个函数可以计算我
的
DataFrame
的
形状,最终结果如下 [total number of rows, total number of columns] 我可以
在
PySpark
中使
用以下函数来获得我
的
DataFrame
的
形状: print((df.count(), len(df.columns))) 我
如何
在
Scala
中
做同样
的
事情?对于更大<e
浏览 111
提问于2021-11-06
得票数 1
回答已采纳
2
回答
无法导入DSX环境
中
的
spark
、
、
、
、
我已经确认火花库本身并没有加载到环境
中
。通常情况下,我会下载软件包,然后下载import。但是对于VMs来说,我不知道
如何
实现这一点。我确实找到了,但我不认为我有错配
的
问题--导入DSX
的
问题已经解决了,但我不能很好地解释我
的
情况。我认为是我真正需要解决
的
问题,但它是针对sparkR而不是python
的<
浏览 0
提问于2018-04-01
得票数 0
回答已采纳
1
回答
如何
在
Scala
中将
DataFrame
转换为DynamicFrame对象
、
、
我正在尝试将一些
pySpark
代码转换为
Scala
,以提高性能。
在
AWS (它使用Apache )
中
,会自动为您生成一个脚本,它通常使用DynamicFrame对象加载、转换和写入数据。但是,DynamicFrame类并不具有与
DataFrame
类相同
的
所有功能,有时您必须将其转换回
DataFrame
对象,反之亦然,以执行某些操作。下面是我
如何
在
DataFrame
中将DynamicFrame对象转换为
pySpark
对
浏览 1
提问于2018-05-17
得票数 3
回答已采纳
1
回答
Spark和
PySpark
之间是否存在特征奇偶
、
、
、
我听到一个常见
的
主题在运行,我只应该在Spark上使用
Scala
进行严肃
的
编程(1.5.1)。真正
的
超级用户使用
Scala
。据说Python对于分析是很好
的
,但是最终应该将代码写到
Scala
来完成。我听到
的
原因有很多: Spark是用
Scala
编写
的
,因此总是比上面的任何其他语言实现都要快。与Python相比,Spark版本总是更倾向于为
Scala
提供更多
的
可见特性和启用功能。
浏览 1
提问于2015-10-06
得票数 1
1
回答
在
scala
dataframe
中将字符串列转换为十进制
、
、
我有一个
dataframe
(
scala
) --我
在
笔记本
中
同时使用了
pyspark
和
scala
。#
pyspark
import org.apache.spark.sql.functions._ val d
浏览 2
提问于2020-10-27
得票数 0
回答已采纳
2
回答
mkString
在
PySpark
中
的
等价性是什么?
、
、
、
我正在将一个
dataframe
转换成一个管道分隔
的
值,并将其写入shell (
scala
)
中
的
一个文件
中
。但我
在
PySpark
方面毫无头绪。会很感激你
的
帮助。尤其是我不知道
如何
用“\”来连接每个列
scala
> val stgDF = spark.read.table("tbl") stgDF: org.apache.spark.sql
浏览 3
提问于2017-10-30
得票数 4
回答已采纳
1
回答
如何
在
Scala
中
以分数图
的
形式获取不同
的
值?
、
、
我想在
Scala
中
对我
的
数据帧进行分层采样。我
的
dataframe
只有一列,我想为它形成一个分数映射。我可以
在
pyspark
中
实现,但在
Scala
中会出错。以下是我
在
Scala
中
尝试
的
内容: import org.apache.spark.sql.functions.我想使用上面
在
.samplyBy方法
中
创建
<
浏览 87
提问于2018-06-07
得票数 0
1
回答
将
Scala
中
的
列表转换为Python或
dataFrame
、
、
、
、
我
在
Scala
中有一个名为dataList
的
2d列表,我想将它转换为Pandas
DataFrame
。val dataList: List[List[Int]] = tempData.toList<class 'py4j.java_gateway.JavaObject'> 据我所知,我必须使用py4j来访问Python
中
的
集合。但
浏览 4
提问于2016-04-23
得票数 4
回答已采纳
点击加载更多
相关
资讯
遇见YI算法之初识Pyspark(二)
Python开源数据分析工具TOP 3!
一文读懂PySpark数据框
大数据下Python的三款大数据分析工具
一文读懂 PySpark 数据框
热门
标签
更多标签
云服务器
ICP备案
对象存储
实时音视频
云直播
活动推荐
运营活动
广告
关闭
领券