Я использую Paddleocr для извлечения текста из определенных областей изображения, и я сталкиваюсь с проблемой, когда иногда результаты OCR возвращают только координаты (например, ниже) вместо фактического текста, даже если область содержит видимый текст . < /p>
Пример вывода ocr.ocr () в некоторых регионах: < /p>
[66.0, 38.0] [94.0, 38.0] [94.0, 113.0] [66.0, 113.0]
[32.0, 44.0] [111.0, 48.0] [110.0, 76.0] [31.0, 72.0]
[53.0, 106.0] [70.0, 106.0] [70.0, 128.0] [53.0, 128.0]
[46.0, 27.0] [78.0, 27.0] [78.0, 52.0] [46.0, 52.0]
[35.0, 59.0] [121.0, 57.0] [122.0, 86.0] [36.0, 88.0]
[34.0, 53.0] [51.0, 53.0] [51.0, 78.0] [34.0, 78.0]
[61.0, 20.0] [90.0, 19.0] [92.0, 159.0] [63.0, 160.0]
[17.0, 43.0] [45.0, 43.0] [45.0, 117.0] [17.0, 117.0]
[47.0, 39.0] [79.0, 39.0] [79.0, 65.0] [47.0, 65.0]
< /code>
Я передаю координаты областей падлоке и пытаюсь извлечь из них текст. Однако иногда я получаю только координаты и отсутствие текста, даже если внутри регионов есть видимый текст. /p>
from paddleocr import PaddleOCR
def recognize_text_from_bubbles(image, lang, detections):
lang_mapping = {
"Japanese": "jp",
"English": "en",
"Chinese": "ch"
}
ocr_lang = lang_mapping.get(lang, "en")
ocr = PaddleOCR(lang=ocr_lang, use_angle_cls=True)
recognized_text = ""
for detection in detections:
x, y, w, h = detection
x = int(x) - int(w / 2)
y = int(y) - int(h / 2)
roi = image[y:y + int(h), x:x + int(w)]
result = ocr.ocr(roi, cls=True)
if result:
for line in result:
if len(line) > 1 and line[1]:
candidate = line[1][0]
recognized_text += candidate + "\n"
else:
print(f"Empty or invalid OCR result for line: {line}")
else:
print("No text detected in this region.")
if not recognized_text:
print("No text was recognized.")
return recognized_text
< /code>
Что я попробовал < /p>
Убедиться, что ограничивающие ящики обнаружения правильно рассчитаны. < /li>
Пробовал разные изображения с различными стилями текста и размерами. Проверяет ни на нет значений и пустых списков, но OCR по -прежнему иногда не может возвращать какой -либо текст. Извлечение текста из этих регионов и как я могу повысить точность распознавания текста из этих регионов? Есть ли какая -либо предварительная обработка или корректировки, которые я мог бы применить, чтобы помочь OCR лучше работать в извлеченных областях?
Подробнее здесь: https://stackoverflow.com/questions/794 ... ed-regions
«Паддлокра возвращает странные результаты при извлечении текста из обнаруженных областей на изображениях» ⇐ Python
-
- Похожие темы
- Ответы
- Просмотры
- Последнее сообщение
-
-
Странные результаты с HuggingFace Transformer[marianmt] переводом большего текста
Anonymous » » в форуме Python - 0 Ответы
- 11 Просмотры
-
Последнее сообщение Anonymous
-