У меня есть приложение Python, которое генерирует предварительно подписанные URL-адреса для нескольких объектов S3, хранящихся в базе данных MongoDB. Мое приложение размещено на малобюджетном сервере, и загрузка всех файлов на сервер, их архивирование и последующая загрузка zip-файла обратно на S3 для загрузки пользователем требует больших ресурсов.
Есть ли более эффективные альтернативы этому подходу? Я ищу способы предоставить пользователям механизм загрузки нескольких файлов непосредственно с S3 без существенного влияния на ресурсы моего сервера.
Я попробовал упомянутый выше метод, о котором читал в одном из них. сообщений, в которых мы сначала загружаем все файлы на сервер, затем загружаем весь zip-архив в корзину s3, а затем передаем клиенту измененный URL-адрес для этого zip-архива.
Подробнее здесь: https://stackoverflow.com/questions/793 ... s3-objects
Оптимизация загрузки файлов с помощью предварительно подписанных URL-адресов для нескольких объектов S3 ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение