Агрегации кадров данных PySpark

Я использую версию Spark 3.4, создал фрейм данных ниже.

df.show()

Идентификатор --> Строка вывод ---> Логическое значение

ID      output

AA      true
AA      false
BB      true
BB      true
CC      true
CC      false
CC      true

Я хотел бы применить группировку к столбцу идентификатора и агрегировать значения в выходном столбце (если все значения из выходного столбца верны для каждого идентификатора, он должен возвращать true, иначе false)

Ожидаемый результат будет

ID  result

AA  false
BB  true
CC  false

каков наилучший способ (функции Windows/UDF) получить желаемый результат с помощью pyspark? Я ценю вашу помощь!

используйте SparkSQL каждую функцию, например: df.groupby('ID').agg(F.expr('every(output) as result'))

lihao 21.08.2024 05:25
Почему в Python есть оператор "pass"?
Почему в Python есть оператор "pass"?
Оператор pass в Python - это простая концепция, которую могут быстро освоить даже новички без опыта программирования.
Некоторые методы, о которых вы не знали, что они существуют в Python
Некоторые методы, о которых вы не знали, что они существуют в Python
Python - самый известный и самый простой в изучении язык в наши дни. Имея широкий спектр применения в области машинного обучения, Data Science,...
Основы Python Часть I
Основы Python Часть I
Вы когда-нибудь задумывались, почему в программах на Python вы видите приведенный ниже код?
LeetCode - 1579. Удаление максимального числа ребер для сохранения полной проходимости графа
LeetCode - 1579. Удаление максимального числа ребер для сохранения полной проходимости графа
Алиса и Боб имеют неориентированный граф из n узлов и трех типов ребер:
Оптимизация кода с помощью тернарного оператора Python
Оптимизация кода с помощью тернарного оператора Python
И последнее, что мы хотели бы показать вам, прежде чем двигаться дальше, это
Советы по эффективной веб-разработке с помощью Python
Советы по эффективной веб-разработке с помощью Python
Как веб-разработчик, Python может стать мощным инструментом для создания эффективных и масштабируемых веб-приложений.
1
1
50
1
Перейти к ответу Данный вопрос помечен как решенный

Ответы 1

Ответ принят как подходящий

Для этого сценария нам нужно использовать group by, поэтому udf не является необходимостью.

from pyspark.sql import functions as F

result_df = df.groupBy("ID").agg(F.min("output").alias("result"))
result_df.show()

Выход:

+---+------+
| ID|result|
+---+------+
| AA| false|
| BB| true |
| CC| false|
+---+------+

То же самое можно сделать и с помощью Spark sql,

SELECT ID, MIN(output) AS result
FROM my_table
GROUP BY ID;

Другие вопросы по теме