Обработка сотен файлов CSV по одной строке для встраивания, загрузка в сосноваю шишку с использованием встраивания OpenA ⇐ Python
Обработка сотен файлов CSV по одной строке для встраивания, загрузка в сосноваю шишку с использованием встраивания OpenA
Это мой текущий код, который работает некоторое время, а затем выдает ошибку «невозможно запустить новый поток». Пробовал как многопоточность, так и многопроцессорность, и оба в конечном итоге вызывают эту ошибку.
defprocess_file(file_path): print(f'file: {file_path}') защита процесс_строка (строка): ***Функция обработки строки*** с open(file_path, 'r') как файлом: читатель = csv.DictReader(файл) для строки в ридере: процесс_строка (строка) если __name__ == '__main__': file_paths = ['файл1', 'файл2', 'файл3'] процессы = [] для file_path в file_paths: p = Процесс(цель=файл_процесса, args=(путь_файла,)) п.старт() процессы.append(p) для p в процессах: p.join()
Это мой текущий код, который работает некоторое время, а затем выдает ошибку «невозможно запустить новый поток». Пробовал как многопоточность, так и многопроцессорность, и оба в конечном итоге вызывают эту ошибку.
defprocess_file(file_path): print(f'file: {file_path}') защита процесс_строка (строка): ***Функция обработки строки*** с open(file_path, 'r') как файлом: читатель = csv.DictReader(файл) для строки в ридере: процесс_строка (строка) если __name__ == '__main__': file_paths = ['файл1', 'файл2', 'файл3'] процессы = [] для file_path в file_paths: p = Процесс(цель=файл_процесса, args=(путь_файла,)) п.старт() процессы.append(p) для p в процессах: p.join()
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Вставка данных в сосновую шишку с использованием .NET и их чтение с помощью Flowise
Anonymous » » в форуме C# - 0 Ответы
- 8 Просмотры
-
Последнее сообщение Anonymous
-
-
-
Изображение и текст в одной строке в одной ячейке с использованием itext
Anonymous » » в форуме JAVA - 0 Ответы
- 21 Просмотры
-
Последнее сообщение Anonymous
-