Я пытаюсь запрограммировать приложение, которое позволяет пользователю проследить японские символы, которое затем использует видение, чтобы определить, правильно ли они отслеживали. Чтобы проверить это, я пытаюсь использовать английские и японских иелок в моих тестах, но, похоже, ни один из них не возвращает никаких наблюдений и, следовательно, никаких признанных строк.import UIKit
import Vision
func convertCanvasToImage(view: UIView) -> UIImage {
let renderer = UIGraphicsImageRenderer(size: view.bounds.size)
return renderer.image { ctx in
view.drawHierarchy(in: view.bounds, afterScreenUpdates: true)
}
}
func runVisionRecognition(canvas: Canvas) {
NSLog("Start runVisionRecognition")
let uiImage = convertCanvasToImage(view: canvas)
guard let cgImage = uiImage.cgImage else { return }
let requestHandler = VNImageRequestHandler(cgImage: cgImage, options: [:])
let request = VNRecognizeTextRequest(completionHandler: recognizeTextHandler)
request.recognitionLevel = .accurate
request.recognitionLanguages = ["en-US"]
//request.minimumTextHeight = 0.1
request.usesLanguageCorrection = true
// request.maximumRecognitionCandidates = 10
do {
try requestHandler.perform([request])
} catch {
NSLog("Uh oh! \(error).")
}
}
func recognizeTextHandler(request: VNRequest, error: Error?) {
guard let observations =
request.results as? [VNRecognizedTextObservation] else {
NSLog("Whoops, observations like \(request.results)")
return
}
let recognizedStrings = observations.compactMap { observation in
return observation.topCandidates(1).first?.string
}
NSLog("Observation: \(observations)")
NSLog("Recognised Strings: \(recognizedStrings)")
}
< /code>
Мои персонажи происходят из холста, которое я затем переводил в изображение, которое нужно внести в зрение (см. Верхнюю функцию). < /p>
Ниже приведены некоторые примеры моего почерка на холсте. NSLOG возвращает «наблюдение: [], распознаваемые строки: []», но, как вы можете видеть, приложение Photos, кажется, распознает нормальные входы! Преобразование из холста в cgimage, но если вы посмотрите на первое изображение, то верхний «Apple» - это преобразованное изображение из моего нижнего чертежа «Apple».
Подробнее здесь: https://stackoverflow.com/questions/779 ... om-cgimage
Swift iOS - зрение не возвращает никаких наблюдений от cgimage ⇐ IOS
Программируем под IOS
-
Anonymous
1740847606
Anonymous
Я пытаюсь запрограммировать приложение, которое позволяет пользователю проследить японские символы, которое затем использует видение, чтобы определить, правильно ли они отслеживали. Чтобы проверить это, я пытаюсь использовать английские и японских иелок в моих тестах, но, похоже, ни один из них не возвращает никаких наблюдений и, следовательно, никаких признанных строк.import UIKit
import Vision
func convertCanvasToImage(view: UIView) -> UIImage {
let renderer = UIGraphicsImageRenderer(size: view.bounds.size)
return renderer.image { ctx in
view.drawHierarchy(in: view.bounds, afterScreenUpdates: true)
}
}
func runVisionRecognition(canvas: Canvas) {
NSLog("Start runVisionRecognition")
let uiImage = convertCanvasToImage(view: canvas)
guard let cgImage = uiImage.cgImage else { return }
let requestHandler = VNImageRequestHandler(cgImage: cgImage, options: [:])
let request = VNRecognizeTextRequest(completionHandler: recognizeTextHandler)
request.recognitionLevel = .accurate
request.recognitionLanguages = ["en-US"]
//request.minimumTextHeight = 0.1
request.usesLanguageCorrection = true
// request.maximumRecognitionCandidates = 10
do {
try requestHandler.perform([request])
} catch {
NSLog("Uh oh! \(error).")
}
}
func recognizeTextHandler(request: VNRequest, error: Error?) {
guard let observations =
request.results as? [VNRecognizedTextObservation] else {
NSLog("Whoops, observations like \(request.results)")
return
}
let recognizedStrings = observations.compactMap { observation in
return observation.topCandidates(1).first?.string
}
NSLog("Observation: \(observations)")
NSLog("Recognised Strings: \(recognizedStrings)")
}
< /code>
Мои персонажи происходят из холста, которое я затем переводил в изображение, которое нужно внести в зрение (см. Верхнюю функцию). < /p>
Ниже приведены некоторые примеры моего почерка на холсте. NSLOG возвращает «наблюдение: [], распознаваемые строки: []», но, как вы можете видеть, приложение Photos, кажется, распознает нормальные входы! Преобразование из холста в cgimage, но если вы посмотрите на первое изображение, то верхний «Apple» - это преобразованное изображение из моего нижнего чертежа «Apple».
Подробнее здесь: [url]https://stackoverflow.com/questions/77962178/swift-ios-vision-does-not-return-any-observations-from-cgimage[/url]
Ответить
1 сообщение
• Страница 1 из 1
Перейти
- Кемерово-IT
- ↳ Javascript
- ↳ C#
- ↳ JAVA
- ↳ Elasticsearch aggregation
- ↳ Python
- ↳ Php
- ↳ Android
- ↳ Html
- ↳ Jquery
- ↳ C++
- ↳ IOS
- ↳ CSS
- ↳ Excel
- ↳ Linux
- ↳ Apache
- ↳ MySql
- Детский мир
- Для души
- ↳ Музыкальные инструменты даром
- ↳ Печатная продукция даром
- Внешняя красота и здоровье
- ↳ Одежда и обувь для взрослых даром
- ↳ Товары для здоровья
- ↳ Физкультура и спорт
- Техника - даром!
- ↳ Автомобилистам
- ↳ Компьютерная техника
- ↳ Плиты: газовые и электрические
- ↳ Холодильники
- ↳ Стиральные машины
- ↳ Телевизоры
- ↳ Телефоны, смартфоны, плашеты
- ↳ Швейные машинки
- ↳ Прочая электроника и техника
- ↳ Фототехника
- Ремонт и интерьер
- ↳ Стройматериалы, инструмент
- ↳ Мебель и предметы интерьера даром
- ↳ Cантехника
- Другие темы
- ↳ Разное даром
- ↳ Давай меняться!
- ↳ Отдам\возьму за копеечку
- ↳ Работа и подработка в Кемерове
- ↳ Давай с тобой поговорим...
Мобильная версия