Я работаю с Google Document AI для обработки длинных документов, в которых количество страниц превышает предел процессора (~ 8 тыс. страниц). Текущий задокументированный лимит страниц для Enterprise OCR составляет 500 страниц для пакетной обработки, однако я могу успешно обработать около 2 тысяч страниц, прежде чем получить эту ошибку:
"status ": {
"code": 3,
"message": "Неверное содержимое входного документа."
Пока я нашел метод в Документе AI Инструментарий для создания пакетов для каталогов GCS, содержащих больше файлов, чем предел процессора, он не обрабатывает отдельные файлы со слишком большим количеством страниц.
Кроме того, я обнаружил параметр в ProcessOptions для отправки диапазона страниц. Однако этот параметр предназначен только для онлайн-обработки, а не для пакетной обработки.
Я понимаю, что могу обойти ограничение на количество страниц, вручную разбив файлы, а затем объединив выходные данные, но я ищете решение, позволяющее избежать этой дополнительной предварительной и постобработки.
Существует ли простой способ пакетной обработки длинных документов, превышающих лимит страниц процессора, без их разделения и повторного объединения вручную? Спасибо!
Подробнее здесь: https://stackoverflow.com/questions/786 ... page-limit
Как пакетно обрабатывать длинные документы, превышающие лимит страниц в документах Google AI? ⇐ Python
Программы на Python
1732344638
Anonymous
Я работаю с Google Document AI для обработки длинных документов, в которых количество страниц превышает предел процессора (~ 8 тыс. страниц). Текущий задокументированный лимит страниц для Enterprise OCR составляет 500 страниц для пакетной обработки, однако я могу успешно обработать около 2 тысяч страниц, прежде чем получить эту ошибку:
"status ": {
"code": 3,
"message": "Неверное содержимое входного документа."
Пока я нашел метод в Документе AI Инструментарий для создания пакетов для каталогов GCS, содержащих больше файлов, чем предел процессора, он не обрабатывает отдельные файлы со слишком большим количеством страниц.
Кроме того, я обнаружил параметр в ProcessOptions для отправки диапазона страниц. Однако этот параметр предназначен только для онлайн-обработки, а не для пакетной обработки.
Я понимаю, что могу обойти ограничение на количество страниц, вручную разбив файлы, а затем объединив выходные данные, но я ищете решение, позволяющее избежать этой дополнительной предварительной и постобработки.
Существует ли простой способ пакетной обработки длинных документов, превышающих лимит страниц процессора, без их разделения и повторного объединения вручную? Спасибо!
Подробнее здесь: [url]https://stackoverflow.com/questions/78637512/how-to-batch-process-long-documents-exceeding-the-google-document-ai-page-limit[/url]
Ответить
1 сообщение
• Страница 1 из 1
Перейти
- Кемерово-IT
- ↳ Javascript
- ↳ C#
- ↳ JAVA
- ↳ Elasticsearch aggregation
- ↳ Python
- ↳ Php
- ↳ Android
- ↳ Html
- ↳ Jquery
- ↳ C++
- ↳ IOS
- ↳ CSS
- ↳ Excel
- ↳ Linux
- ↳ Apache
- ↳ MySql
- Детский мир
- Для души
- ↳ Музыкальные инструменты даром
- ↳ Печатная продукция даром
- Внешняя красота и здоровье
- ↳ Одежда и обувь для взрослых даром
- ↳ Товары для здоровья
- ↳ Физкультура и спорт
- Техника - даром!
- ↳ Автомобилистам
- ↳ Компьютерная техника
- ↳ Плиты: газовые и электрические
- ↳ Холодильники
- ↳ Стиральные машины
- ↳ Телевизоры
- ↳ Телефоны, смартфоны, плашеты
- ↳ Швейные машинки
- ↳ Прочая электроника и техника
- ↳ Фототехника
- Ремонт и интерьер
- ↳ Стройматериалы, инструмент
- ↳ Мебель и предметы интерьера даром
- ↳ Cантехника
- Другие темы
- ↳ Разное даром
- ↳ Давай меняться!
- ↳ Отдам\возьму за копеечку
- ↳ Работа и подработка в Кемерове
- ↳ Давай с тобой поговорим...
Мобильная версия