Я работаю над сценарием Python, которому необходимо обновить 10 000 записей, отправляя отдельные HTTP-запросы к серверному API. Каждую запись необходимо обновлять отдельно, и, к сожалению, у меня нет возможности группировать эти запросы на серверной стороне.
Что я пробовал:
+ потоковая обработка: использовала потоковую обработку Python для параллельной отправки запросов, но возникли проблемы с загрузкой ЦП и памятью.
AsyncIO с aiohttp: пробовала использование asyncio с aiohttp для управления асинхронными запросами. Хотя производительность улучшилась, я столкнулся с проблемами регулирования, ограничения скорости и обработки ошибок среди 10 000 запросов.
Вопросы:
Вопросы:
Какая библиотека или подход Python лучше всего подойдет для эффективной обработки тысяч HTTP-запросов с минимальными накладными расходами?
Это asyncio + aiohttp в правильном направлении, или в этом случае лучше подойдет многопроцессорный подход или какая-либо другая комбинация?
Как я могу обрабатывать повторные неудачные запросы, не перегружая сервер или клиентские ресурсы?
Существуют ли какие-либо рекомендации по управлению таким большим количеством одновременных HTTP-запросов в Python без снижения производительности?
Дополнительная информация:
Backend API имеет ограничение скорости, поэтому мне нужно убедиться, что мой клиент соблюдает это, при этом обрабатывая обновления так же быстро, как и возможно.
Я также рассматривал возможность использования таких библиотек, как httpx или grequests, но был бы признателен за совет, в каком направлении двигаться.
Любая информация или рекомендации по масштабированию таких крупных операций HTTP будут полезны!
Я работаю над сценарием Python, которому необходимо обновить 10 000 записей, отправляя отдельные HTTP-запросы к серверному API. Каждую запись необходимо обновлять отдельно, и, к сожалению, у меня нет возможности группировать эти запросы на серверной стороне. Что я пробовал: [list] [*][code]requests[/code] + потоковая обработка: использовала потоковую обработку Python для параллельной отправки запросов, но возникли проблемы с загрузкой ЦП и памятью. [*]AsyncIO с aiohttp: пробовала использование asyncio с aiohttp для управления асинхронными запросами. Хотя производительность улучшилась, я столкнулся с проблемами регулирования, ограничения скорости и обработки ошибок среди 10 000 запросов. [/list] Вопросы:
Вопросы: [list] [*]Какая библиотека или подход Python лучше всего подойдет для эффективной обработки тысяч HTTP-запросов с минимальными накладными расходами? [*]Это asyncio + aiohttp в правильном направлении, или в этом случае лучше подойдет многопроцессорный подход или какая-либо другая комбинация? [*]Как я могу обрабатывать повторные неудачные запросы, не перегружая сервер или клиентские ресурсы? [*]Существуют ли какие-либо рекомендации по управлению таким большим количеством одновременных HTTP-запросов в Python без снижения производительности? [/list] Дополнительная информация: [list] [*]Backend API имеет ограничение скорости, поэтому мне нужно убедиться, что мой клиент соблюдает это, при этом обрабатывая обновления так же быстро, как и возможно. [*]Я также рассматривал возможность использования таких библиотек, как httpx или grequests, но был бы признателен за совет, в каком направлении двигаться. [/list] Любая информация или рекомендации по масштабированию таких крупных операций HTTP будут полезны!
Я работаю над небольшой программой на Python для себя, и мне нужен алгоритм для быстрого умножения огромного массива на простые степени (более 660 000 чисел, каждое из которых состоит из 7 цифр). Число результата превышает 4 миллиона цифр. В...
Моя программа записывает значение из System.nanoTime() в базу данных и испытывает проблемы с переводом этого значения в удобочитаемую версию даты/времени.
Примеры значений на разные дни: 1279238447829384, 2834543974434482. На сегодняшний день...
Я пытаюсь найти эффективный способ генерировать совокупную сумму из 300 000 000 случайных единиц и -1 в Python. Мне удалось использовать приведенное ниже решение с n примерно до 30 000 000. Но если я попробую использовать большие числа, у меня...
Недавно я работаю над leetcode, вот один из вопросов:
введите описание ссылки здесь
И я написал код ниже:
class Solution {
public:
static constexpr int MOD = 1'000'000'007;
int checkRecord(int n) {
int dp ;
int dp2 ;
memset(dp, 0, sizeof(dp));...
Я разрабатываю систему создания PDF-файлов на .NET (C#), которая извлекает данные, отображает их в отчете RDLC, преобразует отчет в PDF-файл с помощью iTextSharp и шифрует каждый PDF-файл с помощью пароля. Размер PDF составляет в среднем 141 КБ. Мой...