腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Databricks
:
如何将
%
python
下
的
Spark
dataframe
转
换为
%
r
下
的
dataframe
、
、
我在%
python
环境中有一个
Dataframe
,并尝试在%
r
环境中使用它。
如何将
%
python
下
的
spark
数据帧转
换为
%
r
?
浏览 1
提问于2017-07-17
得票数 2
回答已采纳
1
回答
数据库上
的
sql sparklyr sparkr数据帧转换
、
、
、
我使用以下代码在
databricks
上创建了sql表CREATE TABLE data OPTIONS (header "true", inferSchema "true") 下面的代码将该表分别转
换为
sparkr和
r
dataframe
:library(SparkR) data_
spark
<- sql("
浏览 10
提问于2018-07-25
得票数 3
2
回答
如何将
Spark
DataFrame
中
的
嵌套结构转
换为
嵌套映射
、
、
我正在尝试批量写入到AWS DynamoDB中,在加载之前我必须重新格式化
dataFrame
,现在我
的
问题是
如何将
深度structType
dataFrame
转
换为
DynamoDB可以识别的深度映射格式环境: Apache
Spark
2.4.3/
Spark
2.4.3 in
Databricks
,Scala 2.11,DynamoDB 源代码有一个深层结构,如下所示 root |-- PK: stringcontainsNull = tr
浏览 31
提问于2021-08-02
得票数 1
回答已采纳
1
回答
如何让
DataFrame
在
Databricks
notebook
的
Python
cell中可见?
、
、
、
、
我使用
Databricks
在Scala中创建了
Spark
DataFrame
。在做了一些预处理之后,我想出了一个更小
的
数据子集,可以放入内存中。因此,我想将其转
换为
熊猫,然后另存为CSV文件。问题是,我在
Databricks
notebook in Scala cell中使用
的
DataFrame
df在
Python
中是不可见
的
。%
python
df.toPandas().to_csv("d
浏览 12
提问于2019-06-21
得票数 0
1
回答
将星星之火转
换为
熊猫
的
dataframe
有例外:在使用基于文件
的
收集时不支持箭头。
、
、
、
、
我正在尝试将星火数据转
换为
Azure数据库中
的
熊猫数据。但我得到了以下错误:接下来,我尝试使用下面的代码将其转
换为
熊猫数据格式:
spark
.conf.set("
spark
.sql.execution.arrow.enabled("
spark
.sql.execution.arrow.enabled", &
浏览 0
提问于2019-08-26
得票数 1
回答已采纳
1
回答
来自
spark
dataframe
的
块topandas
、
、
我有一个包含1000万条记录和150列
的
spark
数据帧。我正在尝试将其转
换为
熊猫DF。是否可以将其分块并将其转
换为
每个块
的
pandas DF?snapshot_year_month=201806""") 160 # ps[["pol_nbr", /
databricks
/
spa
浏览 0
提问于2018-10-26
得票数 6
1
回答
ValueError:
DataFrame
构造函数调用不正确(数据库/
Python
)
、
、
我正在尝试设置一个Pandas
Dataframe
来处理
Databricks
中
的
数据。我
的
数据是从本地计算机上
的
文件导入
的
,如下所示:Snip of the data # Import packagesimport numpy as np ownr=
spark
.read.format("csv").load("dbfs:/FileStore/shared_uploads
浏览 806
提问于2021-10-14
得票数 1
回答已采纳
1
回答
如何从雪花SQL查询创建PySpark熊猫星火中
的
DataFrame
?
、
、
、
注意:需要使用分布式处理,这就是我使用
的
原因。这两种选择都可行吗?如果是这样的话,我如何处理错误(在下面“问题(S)”和“选项2”
的
错误日志中概述)?---> 54 df_3 = df_3.to_pandas_on_
spark
() #
浏览 3
提问于2021-10-25
得票数 1
1
回答
在ETL期间拒绝本地磁盘上
的
Databricks
spark
权限(Errno 13)
、
、
、
、
我们有一个定制
的
ETL管道,作为
Databricks
集群上
的
python
模块运行。在这个ETL管道
的
某个时刻,我们必须从多个熊猫
的
数据中创建一个火花数据。= self.
spark
_session.createDataFrame(full_data,schema=full_data_schema) 346 347 #replace NaNs and nans fro
浏览 9
提问于2022-01-05
得票数 2
1
回答
我们能否在没有
spark
.sql
的
情况
下
将数据从熊猫数据加载到
databricks
表
、
、
、
我有一个要求,把数据从csv/熊猫数据写到
databricks
表。我
的
python
代码可能不在
databricks
集群上运行。我可能在一个孤立
的
独立节点上运行。我使用
databricks
python
连接器从
databricks
表中选择数据。选择是有效
的
。但我无法从csv或熊猫
的
数据加载到数据库。我是否可以使用
databricks
python
连接器将csv/p
浏览 5
提问于2022-08-19
得票数 0
1
回答
将GenericRecord转
换为
DF
、
、
、
我在流媒体中有一个要求,我必须将GenericRecord转
换为
DatFrame,这样我就可以使用分解和DF中提供
的
其他功能。因此,首先,我看一
下
如何将
GenericRecord转
换为
DF。我已经检查了下面的URL,它有助于将记录转
换为
DF。但是我不能理解
如何将
类SchemaConverterUtils添加到avro对象中。 谢谢
浏览 1
提问于2018-12-01
得票数 0
4
回答
使用Scala中
的
Dataframes在
Spark
1.30中以文本形式保存
、
、
我正在使用
Spark
1.3.0版本,并在Scala中使用带有SparkSQL
的
数据格式。在1.2.0版本中,有一个名为"saveAsText“
的
方法。在使用dataframes
的
1.3.0版本中,只有一个“保存”方法。默认输出是拼板。val sqlContext = new org.apache.
spark
.sql.SQLContext(sc) //
浏览 3
提问于2015-03-27
得票数 6
2
回答
将
Spark
DataFrame
转
换为
Pojo对象
、
、
请参考以下代码: SparkConf sparkConf = new SparkConf().setAppName("TestWithObjectspersons); SQLContext sQLContext = new SQLContext(javaSparkContext); personDataFrame.select("name
浏览 6
提问于2015-12-10
得票数 5
1
回答
使用sparklyr或sparkR连接红移?
、
、
、
、
我正在尝试理解如何使用
spark
将
R
连接到红移,我不能使用简单
的
RPostgres连接,因为数据集非常庞大,需要分布式计算。到目前为止,我可以从s3中读取CSV并将其写入
spark
dataframe
,谁能展示一
下
如何配置far和其他东西,以便我可以将SparklyR(
spark
_read_jdbc() )或sparkR连接到另外,如果您能展示
如何将
jars添加到sparkContexts中,也会很有帮助 到目前为止,我已经了解到
databri
浏览 15
提问于2019-02-21
得票数 0
回答已采纳
4
回答
databricks
:将
spark
数据帧直接写入excel
有没有办法把
spark
数据帧直接写成xls/xlsx格式?但是我想使用
spark
dataframe
来处理我
的
数据。有什么想法吗?
浏览 0
提问于2019-11-29
得票数 5
3
回答
如何将
星火
R
数据转
换为
R
列表
、
、
、
、
这是我第一次在
Databricks
上尝试使用
Spark
来完成与RStudio相同
的
工作。但遇到了一些奇怪
的
问题。看起来
Spark
确实支持像ggplot2、plyr这样
的
软件包,但是数据必须是
R
列表格式
的
。当我使用train <- read.csv("
R
_basics_train.csv")时,我可以在
R
中生成这种类型
的
列表,在这里,变量train是使用typeof(trai
浏览 4
提问于2016-04-21
得票数 0
回答已采纳
1
回答
EMA函数在
R
数据帧上有效,但在
spark
数据帧上失败- Sparklyr
、
、
我对
R
和
Spark
都是新手。我正在编写一个函数来计算一组数据
的
指数移动平均值。我正在使用sparklyr包在
Databricks
Spark
平台上工作。我目前对这些值
的
正确性不感兴趣(我使用
的
是虚拟值-例如。init = 10是任意
的
)。
databricks
") set.seed
浏览 25
提问于2019-11-08
得票数 1
回答已采纳
1
回答
火花转换Pandas df到S3
、
、
、
、
如何将
Pandas以一种方便
的
方式转换成可以写入s3
的
数据。 .format("com.
databricks
.
spark
.csv") .save("123.csv")
浏览 0
提问于2017-01-03
得票数 0
回答已采纳
1
回答
dbfs:/
databricks
/
python
/lib/
python
3.7/site-packages/sampleFolder/data;:AnalysisException:路径不存在
、
、
、
、
str): return filepath return (
spark
.read.parquet(str(path_to_model("sampleFolder", "data")))) 我确认whl文件正确地包含了sampleFolder/data/目录下
的<
浏览 42
提问于2021-07-01
得票数 2
回答已采纳
1
回答
流式作业失败-状态架构不兼容问题
、
File "/
databricks
/
spark
/
python
/lib/py4j-0.10.9-src.zip/py4j/java_gateway.py", line 2442, in _call_proxyreturn_value = getattr(self.pool[obj_id], method)(*params) File "/
databricks
/
spark
/
浏览 2
提问于2021-06-11
得票数 1
点击加载更多
相关
资讯
Dataiku DSS Code Recipe 介绍
Spark 3.0 新特性抢先看
PySaprk之DataFrame
Spark 2.4重磅发布:优化深度学习框架集成,提供更灵活的流式接收器
简化TensorFlow和Spark互操作性的问题:LinkedIn开源Spark-TFRecord
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券