Я пытаюсь извлечь некоторые поля из строки JSONn в фрейм данных. Я могу добиться этого, поместив каждое поле в фрейм данных, а затем объединив все фреймы данных, как показано ниже. Но есть ли более простой способ сделать это? Потому что это всего лишь упрощенный пример, и мне нужно извлечь гораздо больше полей в моем проекте.
from pyspark.sql import Row
s = '{"job_id":"123","settings":{"task":[{"taskname":"task1"},{"taskname":"task2"}]}}'
json_object = json.loads(s)
# json_object
job_id_l = [Row(job_id=json_object['job_id'])]
job_id_df = spark.createDataFrame(job_id_l)
# display(job_id_df)
tasknames = []
for t in json_object['settings']["task"]:
tasknames.append(Row(taskname=t["taskname"]))
tasknames_df = spark.createDataFrame(tasknames)
# display(tasknames_df)
job_id_df.crossJoin(tasknames_df).display()
Результат:
job_id taskname
123 task1
123 task2
Вам даже не нужно явно определять схему здесь, вместо этого вы можете просто использовать Schema_of_json следующим образом:
from pyspark.sql import SparkSession
from pyspark.sql.functions import from_json, col, explode, schema_of_json, lit
spark = SparkSession.builder.getOrCreate()
s = '{"job_id":"123","settings":{"task":[{"taskname":"task1"},{"taskname":"task2"}]}}'
schema = schema_of_json(lit(s))
result_df = (
spark.createDataFrame([s], "string")
.select(from_json(col("value"), schema).alias("data"))
.select("data.job_id", explode("data.settings.task.taskname").alias("taskname"))
)
result_df.show()
# +------+--------+
# |job_id|taskname|
# +------+--------+
# | 123| task1|
# | 123| task2|
# +------+--------+
Как вы упомянули, полей намного больше — это отнимет у вас часть работы.
Более простой способ — отразить схему с помощью строки JSON s
и использовать from_json следующим образом:
from pyspark.sql import SparkSession
from pyspark.sql.functions import from_json, col, explode
spark = SparkSession.builder.getOrCreate()
s = '{"job_id":"123","settings":{"task":[{"taskname":"task1"},{"taskname":"task2"}]}}'
schema = "struct<job_id:string, settings:struct<task:array<struct<taskname:string>>>>"
result_df = (
spark.createDataFrame([s], "string")
.select(from_json(col("value"), schema).alias("data"))
.select("data.job_id", explode("data.settings.task.taskname").alias("taskname"))
)
result_df.show()
# +------+--------+
# |job_id|taskname|
# +------+--------+
# | 123| task1|
# | 123| task2|
# +------+--------+