Пользовательский интерфейс Spark Jobs в Azure Synapse имеет возможность передавать аргументы командной строки в базовый код, но, похоже, нет возможности параметризовать эти аргументы.
Точно так же действие определения задания Spark в Azure Pipelines не предлагает никаких параметров параметризации.
Есть ли способ передать параметры заданию Azure Synapse?
В настоящее время команда разработчиков работает над общедоступным документом/руководством по параметризации заданий Spark.
На данный момент вы можете использовать JSON-файл определения задания для параметризации задания Spark. Прикрепил один образец файла:
{
"targetBigDataPool": {
"referenceName": "yifso-1019",
"type": "SparkComputeReference"
},
"requiredSparkVersion": "2.4",
"jobProperties": {
"name": "job definition sample",
"file": "wasbs://[email protected]/SparkSubmission/artifact/default_artifact.jar",
"className": "sample.LogQuery",
"args": [],
"jars": [],
"pyFiles": [],
"archives": [],
"files": [],
"conf": {
"spark.hadoop.fs.azure.account.key.StorageName.blob.core.windows.net": "StorageAccessKey"
},
"numExecutors": 2,
"executorCores": 4,
"executorMemory": "14g",
"driverCores": 4,
"driverMemory": "14g"
}
}
JSON определения задания можно изменять, импортировать и запускать напрямую.
Он есть в Azure Synapse Pipelines. Выпущено в мае 2021 года.
Выглядит совершенно иначе, чем это. Кроме того, как мы параметризируем задание .net?
какое поле в этом образце файла является параметром, значение которого передается из синапса?