腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何
解决
AttributeError
:'
RDD
‘
对象
在
使用
UDF
时
没有
'_
get_object_id
’
属性
?
、
、
、
、
UserDefinedFunction(lambda (line_a, line_b): aa(line_a, line_b), StringType())print(a)example_dataframe.show() 我想根据条件生成一个新列,而不是其他
属性
。我知道可以
使用
"withColumn“子句指定条件,但我想尝试
使用
自定义函数。_get_
浏览 1
提问于2017-07-18
得票数 0
回答已采纳
1
回答
AttributeError
:'UserDefinedFunction‘
对象
没有
属性
'_
get_object_id
’
、
、
、
、
我用一个函数创建了python (python_file.py),然后
在
同一个作用域中将函数作为一个
UDF
调用。守则如下:pyspark_func =
udf
(outer.my_funct, StringType())它导致了
AttributeError
:'UserDefinedFunction‘
对象
没有
浏览 5
提问于2017-10-10
得票数 2
3
回答
使用
SparkSession创建SparkConf
对象
时
发出
、
、
、
我对火花还不熟悉,需要一些关于以下问题的指导--每当我试图
使用
SparkSession
对象
创建SparkConf
对象
时
,我都会得到以下错误- 我
在
本地模式下
使用
Spark2.3和Python3.7。,但
没有
一个
解决
了我的问题。即使当我试图直接创建SparkSes
浏览 1
提问于2019-05-11
得票数 6
回答已采纳
2
回答
如何
通过显示应用程序版本的列过滤数据?
、
、
、
、
'1.2.0‘+---+-------++---+-------+| 2| 1.23.0|我尝试
使用
UDF
中的库包。version.parse(text) vers = None version_parse_
udf
= F.
udf
(version_parse, T.StringType()) df
浏览 6
提问于2022-07-20
得票数 0
1
回答
无法将类
对象
传递给PySpark
UDF
、
、
、
我的想法是首先在实例化
对象
时调用API,然后将该
对象
传递给任务。理想情况下,所有执行者都
使用
相同的
对象
/副本。 我还
使用
了一个
对象
不可序列化的外部库。如果必须多次实例化,这就不那么令人担心了。如果我试图广播my_obj,就会得到
AttributeError
: 'Broadcast' object has no attribute '_
get_object_id
' (下面是跟踪)。如果我调用外部的秘密,然
浏览 9
提问于2022-03-08
得票数 0
1
回答
如何
在Pyspark中从MapType列中获取键和值
、
、
、
我尝试
在
PySpark中复制这个问题的
解决
方案(Spark < 2.3,所以
没有
map_keys):下面的是我的代码(与上面链接的问题的df相同): .select(F.explode("alpha"))\ .distinct()\ df.select("id", distinctKeys.ma
浏览 44
提问于2020-05-20
得票数 0
回答已采纳
1
回答
AttributeError
:在编写拼花文件
时
,“StructType”
对象
没有
属性
“_
get_object_id
”
、
、
我在编写拼花文件
时
出错:下面是我
使用
的命令: df.write.format("parquet").
浏览 2
提问于2020-07-30
得票数 1
1
回答
AttributeError
:'NoneType‘
对象
没有
属性
'_jvm’(编码
在
UDF
之外很好地工作)
、
、
、
、
我知道有类似的线程,但我无法用这些
解决
方案来
解决
我的错误。(schema, F.PandasUDFType.GROUPED_MAP) 这将引发以下错误:
浏览 26
提问于2022-01-15
得票数 0
回答已采纳
1
回答
用Pyspark问题求解openCV问题的描述符
、
、
、
我从火花的哲学开始,
在
我的例子中,火花。我必须将图像加载到文件夹中,并提取描述符以进行维度缩减。= sc.parallelize(lst_path) df = spark.createDataFrame(row_
rdd
",
udf
_image("path_img"))
使用
printSc
浏览 2
提问于2020-02-12
得票数 1
1
回答
AttributeError
:'StructField‘
对象
没有
属性
'_get_ object _id':
使用
自定义模式加载拼花文件
、
、
、
我试图
使用
自定义模式
使用
PySpark读取一组拼花文件,但是它给出了
AttributeError
:'StructField‘
对象
没有
属性
'_
get_object_id
’错误。('4',31103,'Execute',149,'DEF'),('5',31204,'Execute',145,'DEF'),('6',3
浏览 1
提问于2017-09-13
得票数 4
回答已采纳
1
回答
星星之差
AttributeError
:'NoneType‘
对象
没有
属性
'_jvm’
、
、
、
我发现了类似的问题,但
没有
回答
如何
解决
这个问题。 return regexp_extract(x,re_string,0) df = df.wit
浏览 3
提问于2022-04-28
得票数 0
回答已采纳
1
回答
没有
属性
错误将广播变量从PySpark传递给Java函数
、
、
我
在
PySpark中注册了一个java类,我试图将一个广播变量从PySpark传递给这个类中的一个方法。binary_file: myPythonGateway.setData(data) 但是,如果我直接传递byte[],而不将其包装在p
浏览 3
提问于2020-07-04
得票数 0
1
回答
Pyspark中的奇怪行为
、
、
、
我
在
PySpark中观察到一个奇怪的行为。也许你们中的一个会知道发生了什么。df.filter(~df.mydate.isNotNull()).count()此输出:10 return lambda *a: f(*a) File "<ipython-input-109-422e4b5e07cf>", line 2, in create_my_d
浏览 34
提问于2018-01-10
得票数 0
1
回答
尝试
使用
从Azure服务总线加载消息到ADLS
、
、
我
使用
的代码如下:当我执行以下操作
时
:FormulaClassification/F1Area/F1Domain/flightStream/
浏览 9
提问于2022-02-04
得票数 0
回答已采纳
1
回答
org.apache.spark.SparkException:由: java.io.NotSerializableException引起的不可序列化的任务
、
我有两个Scala代码-- MyMain.scala和MyFunction.scala,分别构建和构建的MyFunction jar将在MyMain中充当
UDF
。该项目是
在
SBT中构建的,build_jar编译输出作为工件存储(只存储所需的类,即MyFunction.class,而不是依赖项)。MyMain.scala将上述工件jar导入lib文件夹下,并
使用
unmanagedBase := baseDirectory.value / "lib" in build.sbt将其添加到类路径中。中的MyFuncti
浏览 1
提问于2019-10-27
得票数 2
回答已采纳
1
回答
'StructType‘
对象
没有
属性
'toDDL’
、
、
、
我运行这个脚本
时
使用
的是spark 2.4.3 & python 3.6.10data = [("Java", "20000"100000"), ("Scala", "3000")] spark = SparkSession.builder.appName('SparkByExamples.com').getOrCreate()
浏览 13
提问于2021-06-04
得票数 1
回答已采纳
2
回答
将列表转换为
RDD
、
、
、
此代码生成一个错误:
AttributeError
:'list‘
对象
没有
属性
'saveAsTextFile'
rdd
= file.map(lambda line: (line.split
浏览 0
提问于2018-04-17
得票数 0
回答已采纳
1
回答
无法调用pyspark
udf
函数
、
、
、
尝试
使用
UDF
函数,但遇到错误: import timefrom pyspark.sql.functions import lit,unix_timestamp,
udf
return unix_timestamp(end, format=timefmt) - unix_timestamp(start, format=timefmt) calc_time_
udf
=
udf
(lambda start, end: calc_time(start, end), Timesta
浏览 36
提问于2021-07-23
得票数 2
回答已采纳
2
回答
AttributeError
:'NoneType‘
对象
没有
属性
'sc’
、
不好意思me.Today我想运行一个关于
如何
在Pyspark.The结果中
使用
sqlContext创建DataFrame的程序是
AttributeError
,它是“
AttributeError
:'NoneType‘
对象
没有
属性
'sc'”,我的计算机是win7,Spark的版本是1.6.0,API是python3 .I有过几次google并阅读了Spark文档,并且无法
解决
我寻求帮助的problems.So问题。_jvm.S
浏览 3
提问于2016-11-28
得票数 6
1
回答
当输入参数是从dataframe的两列连接起来的值
时
,引发
UDF
错误
、
、
、
、
下面的python代码将一个csv文件加载到dataframe df中,并将一个字符串值从df的单个或多列发送到
UDF
函数testFunction(...)。如果我发送一个列值,代码就能正常工作。但是,如果我从df的两列发送值df.address + " " + df.city,则会得到以下错误: PythonException:从
UDF
中抛出一个异常:
浏览 6
提问于2022-05-21
得票数 0
回答已采纳
点击加载更多
相关
资讯
Python中的AttributeError:属性错误处理
教程:Apache Spark SQL入门及实践指南!
Python对象属性的那些事
python如何获取多个excel单元格的值
Python基础教程8.5 异常之禅
热门
标签
更多标签
云服务器
ICP备案
云直播
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券