在spark.sql查询中注册和使用pyspark version 3.1.2内置函数的正确方式是什么? 下面是一个创建pysparkDataFrame对象并在纯SQL中运行简单查询的最小示例。import pandas as pdimport pyspark.sql.types as T
from p
我正在使用ApacheSpark1.6.2但是,我必须首先将它转换为RDD来进行映射,以获得我想要的数据(列)。\python\lib\pyspark.zip\pyspark\sql\context.py", line 64, in toDF
File "c:\spark\python\lib\pyspark.zip\pyspark
我有一个1300行5列的pyspark.sql.dataframe.DataFrame。\spark\spark-2.4.4-bin-hadoop2.7\python\pyspark\sql\dataframe.py in toPandas(self) 2142: Traceback (most recent call last)
What I have tried so