Фабрика данных Azure Получить действие метаданных, возвращающее ошибку "(404) не найдено" при получении количества столбцов

Я пытаюсь реализовать действие «Получить метаданные», чтобы вернуть количество столбцов файлов, которые у меня есть в одном контейнере хранилища BLOB-объектов.

Действие Get Metadata возвращает эту ошибку: Ошибка

Я новичок в Фабрике данных Azure и не могу решить эту проблему. Вот что у меня есть:

Набор данных:Исходный набор данных

Имя- ten_eighty_split_CSV

Подключение — хранилище BLOB-объектов

Схема, импортированная из файла хранилища больших двоичных объектов.

Параметры - "ИмяФайла"; нить; "@pipeline().parameters.SourceFile"

Трубопровод:

Название: десять восемьдесят сплит

Параметры: "Исходный файл"; нить; "@pipeline().parameters.SourceFile"

Настройки: Параллелизм: 1

Получить метаданные: Получить метаданные

Единственный аргумент - "Количество столбцов"

Выдает ошибку при отладке. Я не уверен, что делать, (404) не найден настолько широко, что я не мог найти конкретное решение. Спасибо!

Как установить LAMP Stack - Security 5/5 на виртуальную машину Azure Linux VM
Как установить LAMP Stack - Security 5/5 на виртуальную машину Azure Linux VM
В предыдущей статье мы завершили установку базы данных, для тех, кто не знает.
Как установить LAMP Stack 1/2 на Azure Linux VM
Как установить LAMP Stack 1/2 на Azure Linux VM
В дополнение к нашему предыдущему сообщению о намерении Azure прекратить поддержку Azure Database для MySQL в качестве единого сервера после 16...
0
0
54
1
Перейти к ответу Данный вопрос помечен как решенный

Ответы 1

Ответ принят как подходящий
  • Ошибка возникает из-за того, что вы указали неверное имя файла (или) имя несуществующего файла.

  • Поскольку вы пытаетесь использовать триггер события, созданный большим двоичным объектом, для определения количества столбцов, вы можете использовать следующую процедуру:

  • После настройки действия получения метаданных создайте триггер события хранилища. Перейти к Add trigger -> choose trigger -> Create new.

  • Нажмите «Продолжить». Вы получите вкладку «Параметры запуска триггера». При этом укажите значение как @triggerBody().fileName.

  • Завершите создание триггера и опубликуйте конвейер. Теперь всякий раз, когда файл загружается в ваш контейнер (поверх которого вы создали триггер события хранилища), он автоматически запускает конвейер (отладка не требуется). Если контейнер пуст, и вы пытаетесь выполнить отладку, указав какое-либо значение для параметра sourceFile, это приведет к той же ошибке.
  • Загрузите образец файла в свой контейнер. Это запустит конвейер и даст желаемый результат.

Ниже приведен триггер JSON, который я создал для своего контейнера:

{
    "name": "trigger1",
    "properties": {
        "annotations": [],
        "runtimeState": "Started",
        "pipelines": [
            {
                "pipelineReference": {
                    "referenceName": "pipeline1",
                    "type": "PipelineReference"
                },
                "parameters": {
                    "sourceFile": "@triggerBody().fileName"
                }
            }
        ],
        "type": "BlobEventsTrigger",
        "typeProperties": {
            "blobPathBeginsWith": "/data/blobs/",
            "blobPathEndsWith": ".csv",
            "ignoreEmptyBlobs": true,
            "scope": "/subscriptions/b83c1ed3-c5b6-44fb-b5ba-2b83a074c23f/resourceGroups/<user>/providers/Microsoft.Storage/storageAccounts/blb1402",
            "events": [
                "Microsoft.Storage.BlobCreated"
            ]
        }
    }
}

Другие вопросы по теме

RunOutput не появляется даже после использования dbutils.notebook.exit в ADF
Сопоставление определенного значения со столбцом в параметризованном действии копирования в Фабрике данных Azure
Я хочу скопировать файлы из файловой системы в другую файловую систему на основе страны. Пробовал с GetMetadata, но поглощал только один файл в целевом объекте
Сбой фабрики данных Azure с UPSERT для каждой таблицы со столбцом TIMESTAMP
Запретить обновление поля в фабрике данных
Эквивалент СЧЁТЕСЛИ() и эквивалент сброса «типа состояния» в SSMS или ADF
Фабрика данных - SQL-запрос исторических данных с периодом в одну минуту
Поток данных сопоставления позволяет дублировать записи при использовании UPSERT
Выражение даты Azure Synapse Pipeline — последний понедельник
Мне нужно записать все имена файлов из папки ADLS в CSV-файл, но после успешного запуска конвейера данные не отражаются в целевом CSV-файле