У нас есть машина Debian, на которой мы запускаем несколько контейнеров докеров, используемых для запуска скриптов Python. Некоторые из этих сценариев используют значительную часть памяти нашей машины. Время от времени даже случается, что процесс использует слишком много памяти и вылетает из-за OOM (и нам приходится переделывать скрипт, чтобы он как-то использовал меньше памяти).
Это связано с тем, что наши скрипты обрабатывают значительные объемы данных.
Я хотел бы иметь возможность назначать приоритеты памяти между запущенными контейнерами. По сути, иметь возможность приостанавливать работу контейнеров (за исключением контейнера с наивысшим приоритетом), если памяти становится недостаточно. Я знаю, что мог бы назначить мягкие ограничения памяти, но тогда контейнеры останавливались бы, когда их предел будет достигнут, что привело бы к сбою запуска сценария Python. Есть ли разумный способ автоматически приостановить контейнер (а не останавливать его), если он достигнет определенного уровня использования памяти? И начнется ли он снова, когда память станет доступной?
Спасибо!
Мы пытались использовать ограничения памяти Docker-контейнеров, но затем внутри запускался скрипт Python контейнер аварийно завершает работу при его остановке, поэтому для нас это немного проблематично.
Подробнее здесь: https://stackoverflow.com/questions/790 ... -container
Управление памятью на машине, на которой работает несколько докер-контейнеров ⇐ Linux
1727339698
Anonymous
У нас есть машина Debian, на которой мы запускаем несколько контейнеров докеров, используемых для запуска скриптов Python. Некоторые из этих сценариев используют значительную часть памяти нашей машины. Время от времени даже случается, что процесс использует слишком много памяти и вылетает из-за OOM (и нам приходится переделывать скрипт, чтобы он как-то использовал меньше памяти).
Это связано с тем, что наши скрипты обрабатывают значительные объемы данных.
Я хотел бы иметь возможность назначать приоритеты памяти между запущенными контейнерами. По сути, иметь возможность приостанавливать работу контейнеров (за исключением контейнера с наивысшим приоритетом), если памяти становится недостаточно. Я знаю, что мог бы назначить мягкие ограничения памяти, но тогда контейнеры останавливались бы, когда их предел будет достигнут, что привело бы к сбою запуска сценария Python. Есть ли разумный способ автоматически приостановить контейнер (а не останавливать его), если он достигнет определенного уровня использования памяти? И начнется ли он снова, когда память станет доступной?
Спасибо!
Мы пытались использовать ограничения памяти Docker-контейнеров, но затем внутри запускался скрипт Python контейнер аварийно завершает работу при его остановке, поэтому для нас это немного проблематично.
Подробнее здесь: [url]https://stackoverflow.com/questions/79026224/managing-memory-on-machine-running-multiple-docker-container[/url]
Ответить
1 сообщение
• Страница 1 из 1
Перейти
- Кемерово-IT
- ↳ Javascript
- ↳ C#
- ↳ JAVA
- ↳ Elasticsearch aggregation
- ↳ Python
- ↳ Php
- ↳ Android
- ↳ Html
- ↳ Jquery
- ↳ C++
- ↳ IOS
- ↳ CSS
- ↳ Excel
- ↳ Linux
- ↳ Apache
- ↳ MySql
- Детский мир
- Для души
- ↳ Музыкальные инструменты даром
- ↳ Печатная продукция даром
- Внешняя красота и здоровье
- ↳ Одежда и обувь для взрослых даром
- ↳ Товары для здоровья
- ↳ Физкультура и спорт
- Техника - даром!
- ↳ Автомобилистам
- ↳ Компьютерная техника
- ↳ Плиты: газовые и электрические
- ↳ Холодильники
- ↳ Стиральные машины
- ↳ Телевизоры
- ↳ Телефоны, смартфоны, плашеты
- ↳ Швейные машинки
- ↳ Прочая электроника и техника
- ↳ Фототехника
- Ремонт и интерьер
- ↳ Стройматериалы, инструмент
- ↳ Мебель и предметы интерьера даром
- ↳ Cантехника
- Другие темы
- ↳ Разное даром
- ↳ Давай меняться!
- ↳ Отдам\возьму за копеечку
- ↳ Работа и подработка в Кемерове
- ↳ Давай с тобой поговорим...
Мобильная версия