Я создал функцию Azure, которая срабатывает, когда в мое хранилище добавляется новый большой двоичный объект. Моя функция работает хорошо и срабатывает всякий раз, когда я добавляю новый большой двоичный объект в учетную запись хранения!
Но когда я добавляю одновременно несколько больших двоичных объектов, моя функция не масштабируется и не обрабатывает их 1 за другим. Должен ли я где-то указывать параметр?
NB: Моя функция в основном отправляет запрос API, а затем ждет ответа (который может занять от 5 до 360 секунд). ТАК, что фактический% используемого ЦП большую часть времени очень и очень низок.
Спасибо !
Не могли бы вы поделиться инструкциями по загрузке нескольких BLOB-объектов?
Я загружаю несколько больших двоичных объектов с помощью Python следующим образом:
from azure.storage.blob import BlobServiceClient
connect_str = ""
container_name = "samples-workitems"
local_file_names = ["httpd-2.4.46-win64-VS16.zip", "downloaded.txt", "New Text Document.txt"]
blob_service_client = BlobServiceClient.from_connection_string(connect_str)
# Create a blob client using the local file name as the name for the blob
for local_file_name in local_file_names:
blob_client = blob_service_client.get_blob_client(container=container_name, blob=local_file_name)
# Upload content to block blob
with open("D:\\demo\\" + local_file_name, "rb") as data:
blob_client.upload_blob(data, blob_type = "BlockBlob")
Триггер регистрирует это:
В документе говорится, что «триггер хранилища больших двоичных объектов запускает функцию при обнаружении нового или обновленного большого двоичного объекта». Я думаю, это означает, что функция запускается один за другим при загрузке больших двоичных объектов один за другим.
В данный момент я не загружаю файлы с помощью Python. На самом деле я перетаскиваю свои файлы в свой контейнер с помощью «Microsoft Azure Storage Explorer». Добавляя эти файлы, моя функция запускается. Но моя функция обрабатывает их один за другим вместо того, чтобы запускать несколько экземпляров для их параллельной обработки.