В одном из недавних проектов мне нужно добавить сообщения (›200 КБ) в концентратор событий Azure через конечную точку, предоставляемую службой управления API Azure. Затем задание Stream Analytics считывает это сообщение из концентратора событий и записывает его в соответствующие таблицы в SQL Server.
Я использовал политику log-to-eventhub для записи сообщений в концентратор событий. Но у него есть ограничение по размеру, которое составляет 200 КБ.
Что было бы наилучшим подходом для преодоления этого ограничения размера, или я должен рассмотреть другой способ регистрации полезной нагрузки в концентраторе событий? Любая помощь горячо приветствуется.
Вот предел, описанный в официальная документация.
Вы можете рассмотреть возможность использования Привязка выходных данных концентраторов событий Azure для Функций Azure.
О Как функция использует события концентраторов событий, вы можете попробовать использовать несколько параллельных экземпляров функций в соответствии с планом потребления.
Спасибо @Doris за ваш ответ. Но я нахожусь вне ограничения размера, связанного с политикой log-to-eventhub. Теперь я рассматриваю подход к использованию функции Azure для добавления полезной нагрузки в концентратор событий. Но мне интересно, могут ли функция Azure и концентратор событий обрабатывать миллионы сообщений в секунду. — person sj’; 05.01.2021
Вы можете перейти по новой опубликованной мной ссылке, в которой описаны подробности надежной обработки событий Функциями Azure. @sj ‘ — person sj’; 05.01.2021
@DorisLv Я не думаю, что это правильный ответ. Проблема здесь в том, что сам APIM будет отправлять усеченные журналы в EventHub, если он превышает 200 КБ. Вопрос в том, чтобы получить данные целиком вместо усеченных. — person sj’; 05.07.2021