腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
pyspark.sql
到
JSON
、
从
pyspark.sql
查询中获取有效
json
文档的最佳方式是什么?但我找不到一种好的方法将其转换为
json
文档。我对它调用了'collect()‘,但它没有返回有效的
json
,而且似乎不是将dataframe转换为
json
的最有效的方法。
浏览 19
提问于2019-08-23
得票数 0
回答已采纳
1
回答
在PysparkSQL中爆炸
JSON
、
、
、
我想爆炸一个嵌套的
json
到
CSV文件。希望将嵌套的
json
解析为行和列。from
pyspark.sql
import SparkSessionfrom pyspark.sql.types import*from
pyspark.sql
import Row df=spark.read.option("mul
浏览 7
提问于2021-11-18
得票数 0
回答已采纳
1
回答
将python spark数据存储
到
列表中并作为参数传递
、
、
我有一个python spark文件:from
pyspark.sql
import SparkSessionimport pyspark.sql.functions as psf .builder").map(lambda l:
json
.loads(l)) ratings.re
浏览 0
提问于2017-10-17
得票数 0
2
回答
有没有办法在pyspark中逐个访问数组(Struct)中的多个
JSON
对象
、
、
、
、
我对pyspark和
json
解析还是个新手,我被困在了某些特定的场景中。让我先解释一下我要做什么,我有一个
json
文件,其中有一个数据元素,这个数据元素是一个包含另外两个
json
对象的数组。, "postal_code":null ] 现在我要做的是一个接一个地迭代那个数据数组:意思是迭代
到
json
的第一个对象,将其存储
到
一个da
浏览 142
提问于2019-06-05
得票数 0
回答已采纳
1
回答
火花流与
json
文件
、
我想通过火花流从文件夹位置读取
json
数据。我假设我的
json
数据是我希望Spark表中的输出为:-- transactionId
浏览 4
提问于2017-07-22
得票数 2
1
回答
火花放电中的parseException
、
、
、
我有一个编写的pyspark代码,它读取三个
JSON
文件并将
JSON
文件转换为DataFrames,而DataFrames被转换为执行SQL查询的表。import
pyspark.sql
from
pyspark.sql
import SQLContextfrom
pyspark.sql
import * im
浏览 6
提问于2017-11-15
得票数 0
回答已采纳
1
回答
使用
json
中的嵌套数据创建表并将其追加到databricks
、
、
、
我正在生成一系列嵌套在
json
中的数据,并希望将这些文件自动附加到databricks中的一个表中。我没有她的图式。这些数据将存储
到
azure存储中。# !/usr/bin/pythonfrom pyspark.sql.functionsCREATE TEMPORARY TABLE vsts OPTIONS (p
浏览 22
提问于2020-02-18
得票数 1
1
回答
正在读取Pyspark代码中的嵌套
Json
文件。pyspark.sql.utils.AnalysisException:
、
、
我正在尝试读取嵌套的
JSON
文件。我无法分解嵌套列并正确读取
JSON
文件。My
Json
file "Univerity": "JNTU", "DepartmentID": "101", }
浏览 174
提问于2021-07-09
得票数 0
1
回答
如何分解pyspark dataframe中的map类型?
、
、
我有一个数据帧 import os, sysimport pyodbc from pyspark.sql.functions import explode, col, from_
json
, litfrom
pyspark.sql
import Sp
浏览 28
提问于2020-10-06
得票数 0
回答已采纳
2
回答
如何使用foreach或foreachBatch在PySpark中对数据库进行写入?
、
、
、
我想用Python (PySpark)实现从Kafka源代码
到
MariaDB (PySpark)的Spark结构化流(Spark2.4.x)。from
pyspark.sql
import SparkSessionfrom pyspark.sql.typesimport StructField, StructType, StringType, DoubleType, TimestampType from
pyspa
浏览 3
提问于2019-11-08
得票数 7
回答已采纳
1
回答
使用pyspark解析
json
数据
、
我正在使用pyspark读取下面的
json
文件: "data": { "indicatr": {我写了下面的python代码:from pyspark.sql.types import * frompyspark.sql.type
浏览 22
提问于2019-11-28
得票数 0
2
回答
从具有真假值的
json
字符串创建数据帧
、
、
、
希望在不使用Python模式的情况下,从
json
字符串中创建。
json
是多层嵌套的,可以包含数组。我曾在下面使用过创建数据格式,但获得“无法推断架构”我尝试使用下面的文件加载相同的
json
。spark.read.option("multiline", "true").
json
("/path")有类似的方法从
json
变量加载数据
浏览 6
提问于2022-03-29
得票数 0
1
回答
spark流式传输到pyspark
json
文件中的数据帧
、
、
、
from pyspark.streaming import StreamingContextfrom
pyspark.sql
import SparkSessionfrom
pyspark.sql
import Rowglobal gspark nf
浏览 3
提问于2017-07-30
得票数 0
1
回答
JSON
中的无效字符
、
、
、
、
我有一个字符串格式的结构类型数组的
JSON
。当我试图在一个
json
文件中写同样的东西时,我得到了下面的错误。我使用此输出文件进行模式验证,但由于特殊字符而导致失败。from
pyspark.sql
import Rowfrom pyspark.sql.types import * importactivity":"test","activityValue":"1"},{"a
浏览 14
提问于2019-08-03
得票数 0
1
回答
Pyspark-读取包含多个
JSON
的文本文件时,spark streaming时无法解码
json
对象
、
、
我正在尝试读取一个包含多个
JSON
的文本文件,格式类似于以下格式- {"availableDocks": 32, "totalDocks": 39, "city": "", "altitude": ""latitude": 40.71911552, "statusKey": 1, "availableBikes": 30, "id": 79, "location": &
浏览 3
提问于2017-04-25
得票数 0
2
回答
Catch子句不适用于hive_context.read.
json
函数
、
、
、
、
我有这个PySpark脚本: from
pyspark.sql
import HiveContextfrom pyspark import这是我的LogFunction.py: import loggingfrom
pyspark.sql
import HiveContextfrom
浏览 8
提问于2019-04-30
得票数 2
1
回答
语法分析中,
json
存储为string。只需要作为
json
存储
、
、
、
、
在内部,这个字符串是
json
/tuple。我希望每个
json
都以
json
格式存储为字符串。就像下面。{“开斋节”:“1”,“理由”:“null”},{“开胃”:‘2’,“理由”:“高兴”}
浏览 6
提问于2022-06-13
得票数 0
1
回答
从字典列表创建pyspark dataframe
、
、
、
这个
JSON
必须每天运行,因此如果它再次找到相同的一对(类型,kwarg),它应该给出相同的args_id值。到目前为止,我已经写了这段代码-from
pyspark.sql
import functions as FcheckResultsDF.printSchema() 现在,在我的代码中,我总是以递增的顺序获得args_id,这对于第一次运
浏览 4
提问于2021-03-30
得票数 0
3
回答
用PySpark把
JSON
文件读成Pyspark Dataframe?
、
、
、
如何使用PySpark读取下面的
JSON
结构来触发数据帧?我的
JSON
结构我已经尝试过了:我希望输出a,b,c作为列,值作为
浏览 5
提问于2018-03-21
得票数 4
回答已采纳
2
回答
数据库笔记本+ Repos火花会话范围界定故障
、
、
模块中类中的一个方法如下(简化) self.df = spark.read.format("
json
").load(f"{self.base_savepath}/{self.resource}/{self.resource}*.
json
") 当我在databricks笔记本中执行这个特定的方法时,它会给我一个没有定义“星星之火”的NameError。
浏览 3
提问于2022-07-21
得票数 1
回答已采纳
点击加载更多
相关
资讯
gsonformat 转json到bean-类
用 DuckDB 高效分析 JSON 数据:从入门到实战
Java Jackson 中如何 Pending JSON 对象到数组中
深度学习JSON.stringify和JSON.parse
JSON.parse,JSON.stringify 深浅拷贝的缺陷
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券