Как пакетно обрабатывать длинные документы, превышающие лимит страниц в документах Google AI?Python

Программы на Python
Ответить Пред. темаСлед. тема
Anonymous
 Как пакетно обрабатывать длинные документы, превышающие лимит страниц в документах Google AI?

Сообщение Anonymous »

Я работаю с Google Document AI для обработки длинных документов, в которых количество страниц превышает предел процессора (~ 8 тыс. страниц). Текущий задокументированный лимит страниц для Enterprise OCR составляет 500 страниц для пакетной обработки, однако я могу успешно обработать около 2 тысяч страниц, прежде чем получить эту ошибку:

"status ": {
"code": 3,
"message": "Неверное содержимое входного документа."


Хотя я нашел в наборе инструментов Document AI метод создания пакетов для каталогов GCS, содержащих больше файлов, чем предел процессора, он не касается отдельных файлов со слишком большим количеством страниц.
Дополнительно , я обнаружил в ProcessOptions параметр для отправки диапазона страниц. Однако этот параметр предназначен только для онлайн-обработки, а не для пакетной обработки.
Я понимаю, что могу обойти ограничение на количество страниц, вручную разбив файлы, а затем объединив выходные данные, но я ищете решение, позволяющее избежать этой дополнительной предварительной и постобработки.
Существует ли простой способ пакетной обработки длинных документов, превышающих лимит страниц процессора, без их разделения и повторного объединения вручную? Спасибо!

Подробнее здесь: https://stackoverflow.com/questions/786 ... page-limit
Реклама
Ответить Пред. темаСлед. тема

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

  • Похожие темы
    Ответы
    Просмотры
    Последнее сообщение

Вернуться в «Python»