在pyspark中找到数据帧中有数据的列数的方法是使用dropna()
函数结合count()
函数来实现。
具体步骤如下:
from pyspark.sql import SparkSession
from pyspark.sql.functions import col
spark = SparkSession.builder.getOrCreate()
df = spark.read.csv("your_dataset.csv", header=True, inferSchema=True)
dropna()
函数删除包含缺失值的行:df_cleaned = df.dropna()
count()
函数计算每列非空值的数量:column_count = df_cleaned.agg(*(count(col(c)).alias(c) for c in df_cleaned.columns)).collect()[0].asDict()
最后,column_count
将是一个字典,其中键为列名,值为该列中的非空值数量。你可以通过column_count.keys()
获取所有具有数据的列名。
请注意,此方法假设数据帧中的空值以null形式表示。如果数据集中的空值表示为空字符串或其他形式,请相应地修改代码。
云+社区技术沙龙[第26期]
技术创作101训练营
云+社区开发者大会 武汉站
DBTalk技术分享会
DB TALK 技术分享会
腾讯云GAME-TECH沙龙
云+社区技术沙龙[第16期]
DBTalk技术分享会
云+社区技术沙龙[第12期]
领取专属 10元无门槛券
手把手带您无忧上云