У меня есть сценарий Python, который работает в нескольких различных стручках Kubernetes (минимум 1, максимум ~ 100 в одно и то же время). < /p>
Эти процессы в значительной степени не зависят друг от друга, за исключением того, что в один момент они должны написать в один и тот же файл (последний_аппендийный.with open(filepath, 'w') as file:
file.write(str(int(time.timestamp())))
< /code>
Я задаюсь вопросом, должен ли мне делать какую -либо блокировку в этом файле или это такая минимальная операция, что это не требуется?with open(filepath, 'w') as file:
fcntl.flock(file, fcntl.LOCK_EX)
file.write(str(int(time.timestamp())))
fcntl.flock(file, fcntl.LOCK_UN)
< /code>
Однако мне интересно, достаточно ли этого, чтобы позволить моим процессам работать гладко, или что мне, возможно, мне придется написать какую-то попытку /кроме цикла, когда блокировка встречается в процессе. Несколько процессов без сбоя, и
[*] Если нет, будет ли мое решение для нескольких процессов, написанных в файле?
Подробнее здесь: https://stackoverflow.com/questions/664 ... ave-to-loc
Python записывает в файл из нескольких отдельных процессов Python, мне нужно блокировать файл? ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Синхронизация процессов для разных процессов, не работающих с двумя семафорами [дубликат]
Anonymous » » в форуме C++ - 0 Ответы
- 43 Просмотры
-
Последнее сообщение Anonymous
-