У меня есть небольшое приложение, которое порождает два потока, которые постоянно зацикливаются с заданным интервалом, каждый из которых сканирует таблицу базы данных. Когда один из них получает запись в своей таблице, он запускает процесс с использованием пакета multiprocessing.
Функция процесса создает поисковый веб-сканер и запускает его. поток, запустивший процесс, продолжает работать, не дожидаясь результата. Этот процесс создает и запускает искатель программно. Когда это происходит, журналы, которые отправлялись в файлы журналов из двух потоков, начинают отправляться на консоль.
Таким образом, Scrappy каким-то образом сбрасывает журналирование. Как мне это предотвратить?
Спасибо,
С уважением
Подробнее здесь: https://stackoverflow.com/questions/798 ... a-file-now
Мобильная версия